Latorre dirigirá a partir de julio el Centro de Tecnologías Cuánticas de Singapur.

TW
7

José Ignacio Latorre (Barcelona, 1959), catedrático de Física Teórica en la Universitat de Barcelona, ofrecerá el próximo día 29, miércoles, la conferencia Ética para máquinas, organizada por el Club Ultima Hora Valores y el Cercle d'Economia de Mallorca. El acto tendrá lugar en el Centre de Cultura de la Fundació Sa Nostra. Las entradas ya están agotadas.

Asistimos a los primeros problemas éticos con las máquinas, algo no tan previsible cuando se inventaron las primeras.
— Las primeras máquinas fueron creadas para superar a los humanos en fuerza física, llegando a los actuales coches, barcos o grúas. En el siglo XX creamos máquinas que calculaban más rápido que nosotros. Eran los primeros ordenadores. Ahora, las máquinas funcionan con algoritmos que las hacen astutas y capaces de decidir. Las máquinas nos han debilitado en capacidades físicas y mentales, pero que sustituyan nuestra capacidad de decisión supone un punto de inflexión, culmina un auténtico sorpasso. Por ejemplo, ¿qué decisión tomará un coche autónomo en un caso de inminente colisión?

¿Quién tiene que controlar todo esto?
— Los parlamentos, en sus diferentes escalas. La Unión Europea marcó el año pasado unas directrices sobre cómo programar la inteligencia artificial, pero tienen que reflejarse en leyes que todavía no se han elaborado. Básicamente, estas directrices marcan unas pautas razonables que se basan en el respeto a la libertad de los hombres y las mujeres.

Y en un mundo global, con EEUU, China o Rusia, ¿importan mucho las directrices europeas?
— No podemos esperar a un marco regulatorio global. Hay que actuar ya. Soy positivo y creo que una regulación unificada no llegará a medio plazo, pero sí a largo plazo. El proceso será apasionante.

Noticias relacionadas

De momento, las grandes corporaciones norteamericanas no están por la labor.
— Por ahora, no. Creen que deben autorregularse con su propio código ético. No quieren parecerse al mercado financiero, que sí está muy regulado. Por ejemplo, Google no permite investigaciones militares y tiene un botón rojo para detener, si es necesario, sus sistemas de inteligencia artificial. Como he dicho antes, soy optimista. De la misma manera que los fabricantes de coches no deciden los límites de velocidad, estas corporaciones no tendrán la última palabra en los desarrollos de la inteligencia artificial. Los ciudadanos están cada vez más concienciados y del mismo modo que exigen medidas contra el cambio climático, reclamarán un marco ético para la inteligencia artificial. Para empezar, los hospitales tienen sus propias comisiones éticas.

¿Por qué es tan optimista?
— La Revolución Industrial se inició con unos elevadísimos niveles de contaminación y unas durísimas jornadas laborales. Han transcurrido un par de siglos, pero todo ello se ha corregido. Tenemos el conocimiento para fabricar bombas atómicas, pero no las estamos utilizando. Tenemos armas más potentes, pero Europa no ha conocido un período de paz tan prolongado.

Si las máquinas sustituyen a los seres humanos ¿habrá un conflicto sociolaboral?
— En efecto, no sólo eliminas un puesto de trabajo, sino que dejas una pensión de jubilación en el aire. Habrá que garantizar la sostenibilidad laboral de las personas, teniendo en cuenta que la inteligencia artificial nos libera de trabajos que no nos gustan. Habrá que reducir jornadas laborales. Ya lo hemos hecho, y subiendo salarios. Conflictos de este tipo ya han ocurrido en el pasado y, sin negar las dificultades, hemos salido adelante. Precisamente, creo que los grandes problemas a los que se enfrenta el siglo XXI son el envejecimiento de la población y el mantenimiento de las pensiones, y la adaptación a una sociedad de las máquinas y su ética.

Muchos prefieren hacer un trabajo que no les gusta a quedarse sin trabajo. ¿No habrá una rebelión de los humanos contra las máquinas?
— Hay movimientos contra la tecnificación, pero creo que el desarrollo de la inteligencia artificial es imparable. No hay nada que lo pueda detener.

Es recurrente, pero Hal 9000, el superordenador imaginado por Arthur Clarke en ‘2001', entra en conflicto con el ser humano, discrepa y decide imponerse. Resulta inquietante.
— Sí. Hace más de 50 años, Clarke ya era consciente del progreso de la algoritmia. Hal 9000 está representado en un ojo. Ni siquiera necesita un soporte físico. Pero la máquina no tiene por qué ser hostil hacia el ser humano. Los avances deben ser graduales y no dar un gran salto. Si no, un algoritmo podría decidir que la mejor manera de luchar contra el cambio climático es eliminar a los humanos.