Microsoft utiliza en la plataforma 'online' de su videoconsola Xbox herramientas automáticas y moderadores humanos para detectar los contenidos tóxicos, con el objetivo de que las interacciones de los usuarios en ella sean seguras y promuevan la diversión.
En este sentido, la compañía ha compartido la necesidad de «mantenerse al día» con los cambios que aparecen en la industria y que pueden perjudicar la experiencia de los jugadores. Por ello, han destacado «la exploración y uso» de la IA para acelerar la moderación de contenidos.
Las nuevas herramientas que ya están en uso incluyen 'Community Sift', que "clasifica y filtra miles de millones de interacciones humanas por año«, y 'Turing Bletchley v3', »un modelo multilingüe que escanea imágenes generadas por el usuario para garantizar que solo se muestre el contenido apropiado", como detalla en su blog con motivo de tercer informe de transparencia de Xbox.
La nueva edición del informe se centra en las acciones realizadas durante la primera mitad del presente año, tanto las impulsadas de forma proactiva por sus sistemas automáticos como las que son resultado de las denuncias de los usuarios con las herramientas facilitadas por Xbox.
Así, en los primeros seis meses de 2023, se ejecutaron 17,09 millones de acciones a través de las herramientas proactivas de moderación, lo que supone el 87 por ciento del total de acciones realizadas.
En este período también se bloquearon más de 4,7 millones de contenidos antes de que llegaran a los jugadores. Esta cifra supone un aumento del 39 por ciento en imágenes tóxicas (135.000) respecto del periodo anterior. También han aumentado un 95 por ciento las acciones realizadas de forma proactiva por acoso e intimidación (84.000).
La compañía ha destacado, asimismo, una nueva función de informes de voz para capturar y denunciar el acoso por voz en el juego, que se ha puesto a disposición de los jugadores en el periodo analizado.
Sin comentarios
Para comentar es necesario estar registrado en Ultima Hora
De momento no hay comentarios.