Las redes sociales cada vez albergan más contenido generado por IA generativa con apariencia realista, lo que hace difícil diferenciar entre las publicaciones de contenido humano y el sintético. En este marco, la compañía dirigida por Mark Zuckerberg ha compartido su intención de continuar ayudando a los usuarios a saber cuándo un contenido fotorrealista ha sido creado con IA.
Meta ha compartido su entusiasmo por la «explosión de creatividad» que han demostrado los usuarios que utilizan sus nuevas herramientas de IA generativa, como el generador de imágenes del 'chatbot' Meta AI, con el que se permite generar imágenes con simples indicaciones de texto.
Sin embargo, tal y como ha explicado en un comunicado, los usuarios también «aprecian la transparencia» entorno a esta nueva tecnología y, por ello, implementaron las etiquetas de 'Generado con IA' en las imágenes fotorrealistas creadas con su herramienta de Meta AI.
Ahora, Meta ha indicado que los contenidos de imágenes fotorrealistas creados con IA generativa mediante herramientas de otras empresas, y publicados en Instagram, Facebook y Threads, también incorporarán estas etiquetas de forma automática, de cara a informar a los usuarios sobre el tipo de contenido y evitar confusiones.
Para poder identificar y etiquetar este tipo de contenido, la compañía ha señalado que ha estado trabajando con socios del sector de cara a «armonizar técnicas comunes» que indiquen cuándo un contenido ha sido creado con IA, independientemente de la herramienta o programa con el que se haya generado.
Así, Meta ha compartido que estas etiquetas comenzarán a implementarse «en los próximos meses» en todos los idiomas que admite cada red social.
Igualmente, la compañía liderada por Zuckerberg ha señalado que implementarán este enfoque de transparencia a lo largo de este año, con el objetivo de «aprender mucho más sobre cómo la gente crea y comparte contenidos de IA». «Esto servirá de base a las mejores prácticas del sector y a nuestro propio enfoque de cara al futuro», ha apostillado al respecto el presidente de Asuntos Globales de Meta, Nick Clegg.
Normas comunes para identificar contenido generado por ia
En el marco de su herramienta Meta AI, la tecnológica dispone de varios métodos para señalizar que se trata de contenido generado por IA. Además de los marcadores visibles y etiquetas, Meta introduce marcas de agua invisibles, como los metadatos incrustados dentro de los archivos de la imagen en cuestión.
Así, se ofrece más solidez a la hora de identificar contenido generado por IA, tanto para Meta como para otras empresas. De la misma forma, Meta propone consensuar este tipo de medidas para todos los contenidos generados por IA que aparezcan en Internet.
En este sentido, la compañía ha detallado que ha estado trabajando con empresas dentro del sector para desarrollar unas normas comunes que permitan identificar los contenidos a través de foros como el Partnership on AI (PAI). Según ha especificado, los marcadores invisibles de metadatos utilizados en las imágenes de Meta AI «están en consonancia» con las prácticas de la PAI.
Siguiendo esta línea, Meta también está creando herramientas capaces de identificar marcadores invisibles «a escala», capaces de reconocer la información generada por IA de las normas técnicas C2PA e IPTC, para poder etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock, a medida que estas compañías vayan añadiendo metadatos a las imágenes creadas por sus correspondientes herramientas de IA.
Informar sobre audio y vídeo generado por ia
Además de todo ello, la compañía estadounidense también ha señalado que, aunque las distintas plataformas están empezando a añadir señales en los programas generadores de imágenes, todavía no se han empezado a incluir en las herramientas de IA que crean audio y vídeo «a la misma escala». Por ello, Meta ha detallado que aún no puede detectar señales en este tipo de contenido de otras empresas y, por tanto, no puede etiquetarlo.
En este marco, mientras las compañías comienzan a incluir estas señales en sus vídeos y audios generados por IA, Meta ha indicado que pondrán a disposición de los usuarios una función desde la que informar de cuándo se está compartiendo este tipo de contenido en sus redes sociales, de manera que la plataforma pueda añadir una etiqueta.
Asimismo, en caso de que los usuarios publiquen contenido con un vídeo fotorrealista o un sonido realista, que hayan sido creados o alterados digitalmente, y no informen de ello, Meta podrá aplicar sanciones.
De hecho, en caso de que Meta considere que el contenido «crea un riesgo particularmente alto de engaño sobre un asunto de importancia», podrá añadir una etiqueta «más prominente» para ofrecer información más precisa.
Nuevas fórmulas para identificar contenido generado por ia
A pesar de todo ello, Meta ha subrayado que estas medidas representan «lo que es técnicamente posible ahora mismo», al tiempo que ha advertido que, actualmente, «no es posible identificar todos los contenidos generados por IA» y que, además, hay formas de eliminar los marcadores invisibles.
En este marco, de cara al futuro, la compañía ha señalado que continúan trabajando para conseguir desarrollar clasificadores que ayuden a detectar contenidos generados por IA «aunque carezcan de marcadores invisibles». De la misma forma, también están trabajando para buscar formas de dificultar la eliminación o alteración de las marcas de agua invisibles en contenidos generados por IA.
Un ejemplo del avance de estos objetivos es una reciente investigación llevada a cabo por el laboratorio de investigación sobre IA de Meta, FAIR, en la que se muestra una tecnología de marcas de agua invisibles a la que se refieren como Firma Estable. Este método integra el mecanismo de marca de agua directamente en el proceso de generación de imágenes, lo que hace que la marca de agua no se pueda desactivar.
"Es probable que en los próximos años se convierta en un espacio cada vez más adverso. Las personas y organizaciones que quieran engañar activamente a la gente con contenidos generados por IA buscarán formas de eludir las salvaguardias que se establezcan para detectarlo. Por ello, tendremos que seguir buscando formas de ir un paso por delante", ha manifestado Clegg.
De cara a evitar compartir contenido engañoso generado por IA, Meta también ha recomendado a los usuarios tener en cuenta cuestiones como comprobar que la cuenta que comparte el contenido es de confianza, o buscar detalles que puedan parecer o sonar poco naturales.
La ia como escudo
Con todo ello, Meta ha hecho énfasis en que también utilizan la IA en sus sistemas de integridad como un método importante para detectar este tipo de contenidos. En este sentido, ha señalado que la IA también es un escudo frente al contenido engañoso.
Por ejemplo, la IA ayuda a detectar y combatir la incitación al odio u otros contenidos que infringen sus políticas de comportamiento en todas las plataformas de Meta. Tanto es así que, con esta tecnología han conseguido que, por cada 10.000 visualizaciones de contenido, solo una o dos publicaciones contengan incitación al odio.
Asimismo, otro ejemplo de este uso es el entrenamiento de los grandes modelos lingüísticos (LLM) con las normas comunitarias de Meta, lo que ayuda a determinar si un contenido infringe sus políticas.
"Las herramientas de IA generativa ofrecen enormes oportunidades, y creemos que es posible y necesario que estas tecnologías se desarrollen de forma transparente y responsable", ha concluido Clegg.
Sin comentarios
Para comentar es necesario estar registrado en Ultima Hora
De momento no hay comentarios.