El reconocimiento por IA de discursos tóxicos en Call of Duty ya ha detectado 2 millones de cuentas
Call of Duty ha experimentado una reducción del 8% en los reincidentes desde que se agregó el sistema
El sistema de moderación del chat de voz antitoxicidad de Call of Duty ha detectado más de dos millones de cuentas que están siendo investigadas.
El año pasado, Activision anunció que implementaría una nueva herramienta de moderación de voz en tiempo real en sus juegos Call of Duty más recientes que "lucharía contra el discurso tóxico" al detectar cosas como "discurso de odio, lenguaje discriminatorio, acoso y más" por parte de los jugadores.
Se agregó una versión beta del sistema de moderación impulsado por IA a Modern Warfare 2 y Warzone en agosto de 2023 en Norteamérica en inglés, solo antes de implementarlo más tarde en Call of Duty: Modern Warfare 3, expandiéndolo globalmente (menos Asia) y agregando español y el apoyo portugués a su moderación.
Ahora, según la compañía en una publicación de blog reciente, su programa de sistema antitoxicidad ha logrado detectar más de dos millones de cuentas que han sido sometidas a aplicación de "chat de voz disruptivo" en el juego, basado en el Código de Conducta de Call of Duty.
Sin embargo, Activision dice que encontró una "tendencia desafortunada" en la que solo uno de cada cinco jugadores reportó comportamientos y discursos tóxicos. Aun así, en los casos que no se denuncian, su sistema de moderación de voz tomaría medidas contra los jugadores.
"La presentación de informes activos sigue siendo fundamental para que los jugadores puedan denunciar cualquier situación negativa que encuentren", dijo la compañía.
"Para fomentar más informes, hemos implementado mensajes que agradecen a los jugadores por informar y, en el futuro, buscamos brindar comentarios adicionales a los jugadores cuando actuemos según sus informes".
Obtenga información, inspiración y ofertas diarias en su bandeja de entrada
Regístrese para recibir noticias de última hora, reseñas, opiniones, ofertas de alta tecnología y más.
Activision explicó que después de examinar los datos mes a mes, Call of Duty había visto una reducción del 8% en los infractores reincidentes desde que se agregó el sistema de moderación del chat de voz y vio una reducción del 50% en los jugadores "expuestos a casos graves de voces perturbadoras" en el chat desde que se lanzó Modern Warfare III.
Por violar las reglas de conducta, los jugadores pueden esperar consecuencias como ser silenciados globalmente en el chat de voz y texto y/o restringir otras funciones sociales.
"Nuestras herramientas seguirán evolucionando y expandiéndose con el tiempo, incluida la incorporación de nuevos idiomas a nuestro sistema de moderación de voz en futuras actualizaciones", añadió Activision.
"Call of Duty se dedica a combatir la toxicidad dentro de nuestros juegos y permitirá a nuestros equipos implementar y desarrollar nuestra tecnología de moderación para combatir el comportamiento disruptivo, ya sea a través de chat de voz o texto. Entendemos que este es un trabajo continuo, pero estamos comprometidos a Trabajar con nuestra comunidad para garantizar que Call of Duty sea justo y divertido para todos."
Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?