Counter-Strike: Global Offensive se convirtió en un nombre un poco menos exacto, ya que 20.000 cuentas han sido prohibidas en la plataforma de FaceIt desde finales de agosto por el administrador recientemente lanzado AI Minerva.

Después de meses de pruebas de aprendizaje automático, el sistema creado con la tecnología de Google condujo a una reducción del 20% en la cantidad de mensajes tóxicos entre agosto y septiembre, según el blog de FaceIt.

He cambiado de opinion. Los algoritmos son buenos ahora.

FaceIt es una plataforma independiente con servicios de emparejamiento, torneos, escaleras y anti-trampas para varios juegos competitivos, incluidos CS: GO, Rocket League y Dota 2. Esto es independiente de la moderación Counter-Strike de Valve. FaceIt ha desarrollado Minerva en asociación con Google y Jigsaw. Su objetivo declarado es combatir la toxicidad en los juegos en línea de una manera que pueda escalar para sus enormes bases de jugadores. Actualmente se encuentra en una humilde versión 0.1, pero suponiendo que estos números sean precisos, es un buen comienzo y potencialmente una mejora significativa para los jugadores.

Jigsaw entró recientemente en algunos detalles sobre cómo funciona Minerva, basándose en el funcionamiento de su predecesor, Perspective. Los mensajes marcados se clasifican según su similitud con el abuso que la IA ha registrado en el pasado. Luego, se procesan números adicionales para determinar qué tan grave es la violación sospechada y qué tan frecuentes fueron esos mensajes de ese jugador. Si decide que es necesaria una advertencia o una prohibición, lo hace al final del partido.

Esa inmediatez y claridad de la retroalimentación fue particularmente importante, ya que la moderación manual a menudo toma horas o días, dejando a los infractores menos graves confundidos y a los realmente horribles libres para arruinar el juego de más personas mientras tanto. Por escéptico que soy respecto a la moderación totalmente automatizada, es difícil negar las ventajas de que los griefers y otros jebs sean aplastados instantáneamente por robots.

Otras formas de abuso y duelo son más difíciles de identificar que una línea de texto conveniente, y eso no se ignora. “FaceIt planea combinar diferentes fuentes de datos como videos, chat de voz y eventos en el juego para evaluar mejor el comportamiento de un jugador en un partido y poder abordar la toxicidad en diferentes niveles”, afirma Jigsaw. El trabajo en Minerva continuará, y si la tecnología es tan efectiva como lo están haciendo, tal vez la era del agraviado algún día sea solo un mal recuerdo.