La nueva tecnología se suma a un programa piloto que requiere empleados capacitados que revisen las imágenes ofensivas. «Mediante el uso de la máquina de aprendizaje y la inteligencia artificial, ahora podemos detectar proactivamente imágenes o videos de desnudos que se comparten sin permiso», ha señalado el gigante de las redes sociales en una nota publicada en su blog Facebook Newsroom. «Significa que podemos encontrar este contenido antes de que alguien lo denuncie», ha agregado la empresa.
Un miembro del equipo de operaciones de la comunidad de Facebook revisará posteriormente el contenido encontrado por la nueva tecnología. Si se descubriera que era una imagen ofensiva, lo eliminará o desactivará la cuenta responsable de difundirlo, tal y como ha indicado la compañía.
La «pornografía de venganza» se refiere al intercambio de imágenes sexualmente explícitas en Internet, sin el consentimiento de las personas que aparecen en ellas, para extorsionarlas o humillarlas. Afecta de manera desproporcionada a las mujeres, que a veces son atacadas por sus exparejas.
Facebook también lanzará un centro de soporte llamado 'No sin mi consentimiento' en la página del centro de seguridad para las personas cuyas imágenes íntimas se han compartido sin su consentimiento.
La compañía trabaja con al menos cinco proveedores externos en al menos ocho países en la revisión de contenido. En diciembre, tenía alrededor de 15.000 personas entre contratistas y empleados, que trabajaban en la revisión de contenido.
Sin comentarios
Para comentar es necesario estar registrado en Ultima Hora
De momento no hay comentarios.