Más de la mitad de mujeres de Baleares han recibido fotos sexuales no solicitadas

El estudio también señala que un 5,75% de las mujeres de las islas han recibido amenazas o han visto publicadas fotografías íntimas sin su consentimiento

Imagen de archivo | Pixabay

TW
6

Es fácil, para cualquier hombre o mujer, visualizar en segundos qué es exactamente una fotografía o mensaje no solicitado de carácter sexual; sobre todo, porque tal y como muestra la cifra arrojada por el último estudio del Govern Balear, más de la mitad de las mujeres de las islas, han recibido una.

De hecho, esta encuesta ciudadana, dirigida a confeccionar el Plan Estratégico de Igualdad entre Mujeres y Hombres de Baleares, desvela que el 51,7% de las mujeres encuestadas había recibido mensajes o fotografías no solicitadas de carácter sexual. «Un gran reto» para la Administración Pública como apuntan desde IBDona a la hora de proteger los derechos de las mujeres ante los abusos digitales.

La cosa no queda sólo en una imagen subida de tono, el estudio también señala que un 5,75% de las mujeres ha recibido amenazas o ha visto publicadas fotografías íntimas. «Una prevalencia baja pero preocupante», añaden desde la entidad.

Asimismo, el IbDona subraya que las violencias no se concentran en un único espacio, sino que se distribuyen en una gran variedad de entornos, tanto físicos como digitales. Entre otros datos, un 14,4% de las mujeres entrevistadas apunta a Internet y las redes sociales como un espacio en el que han sufrido violencia.

Se trata de una problemática emergente en Baleares a la que la Inteligencia Artificial ha sumado nuevos riesgos, algo que certifica el último informe europeo: 'Ciberviolencia contra las mujeres en la UE', del Servicio de Estudios del Parlamento Europeo.

Creación digital de imágenes de personas desnudas sin su consentimiento

Se le llama tecnología 'deep-fake' y suplanta la voz, cara, cuerpo o incluso acciones de una persona. Las mujeres son su principal objetivo y ha dado lugar a medidas legislativas para detenerla e impedirla. De hecho, el mismo informe señala que más del 90% de todos los vídeos de 'deep-fake' en línea son de naturaleza pornográfica y sus víctimas son casi exclusivamente mujeres, a menudo personalidades de la cultura, los medios de comunicación y la política.

Esta nueva tecnología también puede facilitar los delitos sexuales contra niñas, ya que los autores pueden utilizar la IA para hacerse pasar por niños o jóvenes y para automatizar la captación de menores desprevenidos a gran escala.