Hasta donde se ha podido conocer, Call of Duty está dando un paso adelante en su compromiso de combatir el comportamiento tóxico y disruptivo con la moderación del chat de voz en el juego a partir del lanzamiento de Call of Duty: Modern Warfare III este venidero 10 de noviembre. Activision se asociará con Modulate para poder brindar moderación global de chat de voz en tiempo real, a escala, comenzando con “Call of Duty” de este otoño. ¡Todos los detalles en breve!
Sistema de moderación de voz de Call of Duty usa ToxMod
Es importante señalar que el nuevo sistema de moderación de chat de voz de Call of Duty usa ToxMod, la tecnología de moderación de chat de voz impulsada por Inteligencia Artificial (IA) de Modulate, para identificar en tiempo real y combatir el discurso tóxico, incluyendo también el discurso de odio, el lenguaje discriminatorio, así como también el acoso y mucho más. Tal y como se ha informado, este nuevo desarrollo fortificará los sistemas de moderación continuos liderados por el equipo antitoxicidad de Call of Duty, que incluye filtrado basado en texto en 14 idiomas para el texto del juego (chat y nombres de usuario), así como también un consistente sistema de informes de jugadores dentro del juego.
Según se informa, el 30 de agosto comenzó en Norteamérica un lanzamiento beta inicial de la tecnología de moderación de chat de voz dentro de los juegos existentes, “Call of Duty: Modern Warfare II” y así mismo, “Call of Duty: Warzone”, seguido de un lanzamiento mundial completo (exceptuando Asia) programado para Call of Duty: Modern Warfare III, el 10 de noviembre. Según se ha podido conocer, el soporte comenzará en inglés y se implementarán idiomas adicionales en una fecha posterior.
Es vital mencionar que desde el lanzamiento de Modern Warfare II, la moderación antitoxicidad existente de Call of Duty ha restringido el chat de voz y/o texto a más de 1 millón de cuentas que han violado el Código de Conducta de Call of Duty. La tecnología de filtrado de texto y nombre de usuario continuamente actualizada ha establecido un mejor rechazo en tiempo real del lenguaje dañino, lo que es sin duda, bastante beneficioso.
El equipo antitoxicidad ayudó a (entre otras cosas), agregar informes maliciosos a la política de cumplimiento y seguridad de Call of Duty para poder combatir el aumento de informes falsos en el juego.
Desde Call of Duty le piden a sus jugadores que sigan informando cualquier comportamiento disruptivo que encuentren mientras ellos trabajan para reducir y limitar el impacto del comportamiento disruptivo en Call of Duty. La franquicia ha manifestado que seguirán trabajando con su comunidad para la moderación del chat y, de esa forma, seguir haciendo que Call of Duty sea justo y divertido para todos.