Archivo - Publicación en Facebook. | JOSHUA HOEHNE / UNSPLASH - Archivo

TW
0

El Consejo asesor de Meta considera que la actual política de la compañía sobre contenido multimedia manipulado es "incoherente" y ha instado a su actualización para que atienda a los daños que busca prevenir y no a la forma en que se ha creado.

Un clip protagonizado por el presidente de Estados Unidos, Joe Biden, y publicado en Facebook en mayo de 2023 que había sido manipulado a partir de un vídeo real para simular que está tocando el pecho de una de sus nietas, no incumplía las políticas de la red social en lo concerniente a la manipulación de contenidos multimedia.

El vídeo original, de octubre de 2022, muestra a Biden intercambiando la pegatina 'Yo he votado' con su nieta. La manipulación se centró en el momento en el que el presidente acerca la mano a la pegatina, lo que parece que esté tocando su pecho, un gesto que se repite en bucle en el clip y que se acompaña del texto «pedófilo enfermo».

El vídeo fue inicialmente retirado por los sistemas automáticos de Facebook pero tras una apelación, un revisor humano determinó que al no haber sido manipulado con herramientas de inteligencia artificial y mostrar algo que Biden no había hecho en realidad, en lugar de algo que no había dicho, no podía retirarse según lo expuesto en dicha política.

Esto se debe a que la política sobre contenido multimedia manipulado «se enfocada inapropiadamente en cómo se ha creado el contenido, en lugar de qué daños específicos pretende prevenir», ha apuntado el Consejo, que considera que en su actual forma «carece de justificación persuasiva y es incoherente y confusa para los usuarios y no especifica claramente los daños que busca prevenir».

Por ello, el Consejo ha instado a Meta ha reconsiderar la política. «Meta debería ampliar la política para cubrir el audio y el contenido que muestre a personas haciendo cosas que no hicieron», explica y añade que, tras consultar con expertos y usuarios, tampoco debería limitarse a las manipulaciones sintéticas, ya que el contenido «no alterado por la IA prevalece y no necesariamente es menos engañoso».

«El Consejo reconoce que Meta puede implementar medidas necesarias y proporcionadas para prevenir daños fuera de línea causados por los contenidos multimedia manipulados», concluye.