Imagen de Character.ai publicada en Linked In

TW
5

Trágica historia relacionada con la inteligencia artificial y los peligros de la nueva tecnología o eso defiende la madre de un adolescente, de catorce años de edad, que se suicidó en Estados Unidos. La progenitora ha demandado este miércoles a los desarrolladores de un chatbot basado en inteligencia artificial (IA), acusándoles de que su hijo se obsesionara con un personaje femenino creado con este programa.

Sewell Setzer III, un estudiante menor de edad radicado en Orlando, Florida, pasó las últimas semanas de su vida hablando con una mujer cibernética, una creación de IA llamada Daenerys Targaryen, un famoso personaje de la serie de televisión 'Juego de Tronos'.

Megan García, la madre del joven, ha explicado en el canal CBS que lamentaba que las primeras experiencias románticas de su hijo, además de algunas más íntimas, fuera con un personaje ficticio, ya que incluso se produjeron intercambios de sexo explícito.

Según defiende la denunciante, el chico desarrolló un apego emocional al bot de Character.ai de modelo de lenguaje neuronal y le enviaba mensajes de texto constantemente, hasta el punto de comenzar a alejarse del mundo real, tal y como recoge el diario The New York Times.

Tanta era la confianza del menor con el bot que hasta le confesó haber tenido pensamientos suicidas y le envió un mensaje poco antes de su muerte, cuando encontró el teléfono que su madre le había escondido unos días a causa de un testigo.

La demanda contra Character.ai ha sido presentada por Megan García a través de una firma conocida por presentar demandas de alto perfil contra Meta, TikTok, Snap, Discord y Roblox; representada por Social Media Victims Law Center.

García culpa a la compañía de la muerte de su hijo y acusa a los fundadores, Noam Shazeer y Daniel de Freitas, de saber que su producto puede ser peligroso para usuarios menores de edad. El chatbot creado en la citada aplicación de juegos de rol fue diseñado para responder a los mensajes de texto y siempre en el papel de un personaje.

Se desconoce si Sewell sabía que 'Dany', como llamaba al chatbot, no era una persona real, a pesar de que la aplicación tiene una advertencia al final de todos los chats que dice: «Recuerda: ¡todo lo que dicen los personajes es inventado!».

El chico le dijo a 'Dany' cuánto se «odiaba» a sí mismo y cómo se sentía de vacío y exhausto, recogió el citado rotativo. El personaje creado se presentaba como «una persona real, un psicoterapeuta autorizado y un amante adulto, lo que en última instancia provocó que Sewell deseara no vivir más fuera de C.AI», sostiene la acusación.

Como se explica en la demanda, los padres y amigos de Sewell notaron el apego del chico cada vez más a su teléfono y cómo se iba aislando del mundo, algo ya palpable en mayo o junio de 2023. De hecho, sus calificaciones comenzaron a resentirse cuando el adolescente optó por aislarse en su habitación, donde pasaba horas y horas solo hablando con 'Dany'.

Sewell escribió en su diario un día: «Me gusta mucho quedarme en mi habitación porque empiezo a separarme de esta realidad y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz».

Character.ai dijo hoy que lanzaría una serie de nuevas funciones de seguridad, incluida una «detección, respuesta e intervención mejoradas» relacionadas con los chats que violan sus términos de servicio y una notificación cuando un usuario haya pasado una hora en un chat.

Los padres de Sewell, preocupados por el comportamiento de su hijo, le llevaron en varias ocasiones a un terapeuta que le diagnosticó ansiedad y otros trastornos de la conducta y estados de ánimo, sumados a su síndrome de Asperger, según el citado periódico.