Ubisoft y Riot Games han anunciado el proyecto de investigación Zero Harm in Comms, una colaboración con la que buscan mejorar el alcance de sus soluciones basadas en inteligencia artificial (IA) para detectar contenido tóxico en las interacciones de los chats de juegos.
Ambas compañías van a crear una base de datos compartida y un ecosistema de etiquetado capaz de recoger datos 'in-game', lo que les servirá para entrenar diferentes herramientas de moderación preventiva para disminuir comportamientos inadecuados.
Las desarrolladoras de videojuegos son conscientes de que es necesaria una creación de estructuras de videojuegos que fomenten experiencias sociales satisfactorias a fin de evitar interacciones dañinas para los usuarios.
Por ese motivo, Ubisoft y Riot Games, que forman parte de la denominada Fair Play Alliance, han creado un proyecto de investigación llamado Zero Harm in Comms, enfocado a la reducción de contenido negativo o dañino en los chats de videojuegos. Con esta iniciativa, esperan sentar las bases tecnológicas necesarias para futuras colaboraciones de la industria.
Asimismo, esperan crear un marco de referencia que garantice la ética y al privacidad de esta propuesta, con el objetivo de "crear comunidades seguras y fomentar las experiencias positivas en espacios virtuales, según ha comentado el director de investigación tecnológica de Riot Games.
Por su parte, el director ejecutivo de Ubisoft La Forge, Yves Jacquier, ha comentado que este proyecto mostrará "cómo evitar aún mejor la toxicidad en los juegos" y permitirá a la compañía establecer "un vínculo directo" con sus comunidades.
A pesar de que Zero Harm in Comms aún está en sus fases iniciales, ambas desarrolladoras creen que el proyecto beneficiará a toda la comunidad de jugadores en un futuro. Además, han anunciado que compartirán los aprendizajes de esta fase inicial del experimento con el resto de la industria.
Fuente EP.