El profesor de Ingenierías Industriales, Santiago Cáceres. | M. À. Cañellas

TW
11

El profesor de Ingenierías Industriales de la Universidad de Valladolid, Santiago Cáceres, es uno de los expertos que participa este fin de semana en las Jornadas de ‘Diálogos para la paz. Derechos Humanos en un mundo globalizado’, organizadas por la Comisión General Justicia y Paz. Durante dos días, el 18 y 18 de octubre, se ofrecerán diversos diálogos para abordar los derechos humanos desde cuatro prismas: la Iglesía, la ética de la inteligencia artificial (IA), la vivienda y Europa.

En el caso de Cáceres, su intervención girará en torno a los impactos negativos de la IA, desde dos puntos de vista: el material y de uso. «Cuando hablamos de IA se piensa en digital, pero requiere un gran parte material para que exista. Hacen falta ordenadores y redes y para construirlos hacen falta materias primas», expone. «La mayoría vienen de países subdesarrollados o tercer mundistas y en conflictos. Nos encontramos con problemas de trabajo infantil, violación de mujeres, contaminación de las aguas y grupos armados».

Señala también las condiciones laborales en las que se desarrolla el trabajo: «Turnos de 12 horas, salarios muy bajos, en contacto con productos dañinos para la salud». «Los productos electrónicos requieren muchos productos químicos, considerados como peligrosos. Ahí ya tenemos muchos efectos negativos significativos a los derechos humanos», subraya.

Además, acarrea efectos negativos en la fase de uso que provoca «un capitalismo de vigilancia», es decir se produce una «extracción masiva y oculta de datos personales», que se venden a las empresas para predecir y afectar el comportamiento humano. Entre los efectos negativos destacan la pérdida de la privacidad y sofisticados algoritmos para que pasemos el máximo de tiempo posible en las aplicaciones.

De esta segunda deriva otro efecto negativo: «Para que estemos más tiempo conectados el tipo de contenido que se ofrece es cada vez más extremo, violento, polarizador, que fomenta los discursos de odio». A su vez conlleva otro gran problema: «Se genera caos epistémico. Cada vez es más difícil distinguir la verdad, porque hay muchas informaciones falsas y circulan como si fueran veraces. Si uno no puede acceder a datos fiables, no puede conocer la verdad y sin conocerla los sistemas de comunicaciones quedan mermados», explica Cáceres parafraseando a la premio Nobel María Ressa.