Tech

Científicos plantean los peores escenarios de la inteligencia artificial (y soluciones)

El fin de semana pasado en la Universidad Estatal de Arizona se llevo a cabo un taller, donde investigadores reprodujeron escenarios catastróficos en IA, desde la manipulación del mercado bursátil hasta una guerra global.

Los partidarios de la inteligencia artificial (IA) predicen un mundo feliz de autos voladores y la cura para el cáncer. Los detractores se preocupan por un futuro en que los humanos sean esclavizados por una raza maligna de robots. El experimentado científico de IA, Eric Horvitz, y el gurú del Reloj del Apocalipsis Lawrence Krauss, abocados a buscar un punto medio, se reunieron con un grupo de expertos en el desierto de Arizona para debatir lo peor que podría ocurrir y cómo impedirlo.

Su taller tuvo lugar el fin de semana pasado en la Universidad Estatal de Arizona y fue financiado por Elon Musk, cofundador de Tesla y por Jaan Tallinn, cofundador de Skype. Consistió en una suerte de juegos apocalípticos de IA que organizaron a alrededor de 40 científicos, expertos en ciberseguridad y especialistas en políticas en grupos de atacantes (equipo rojo) y defensores (equipo azul) que reprodujeron escenarios catastróficos en IA, desde manipulación del mercado bursátil hasta guerra global.

A los participantes se les dio la 'tarea' de presentar propuestas de los peores escenarios. Tenían que ser realistas, basarse en las tecnologías actuales y en las que parecen posibles, y proyectar a cinco y 25 años en el futuro. Los que presentaron las pesadillas 'ganadoras' fueron elegidos para liderar los paneles, constituidos por cuatro expertos en cada uno de los dos equipos que se conformaron para discutir el ataque y cómo evitarlo.

Resulta que muchos de estos investigadores pueden asemejarse a los escritores de ciencia ficción Arthur C. Clarke y Philip K. Dick en cuanto a visiones catastróficas. En muchos casos, se necesitó poca imaginación, escenarios como la tecnología para modificar elecciones o nuevos ciberataques con IA que se ven en el mundo real o que al menos son técnicamente posibles. Horvitz citó investigación que muestra cómo alterar el modo en que un automóvil autónomo capta las señales de tránsito de manera que el vehículo confunda una señal de alto por otra de ceder el paso.

La posibilidad de ataques cibernéticos automatizados es la que más inquieta a John Launchbury, director de una de las oficinas de la Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos, y Kathleen Fisher, directora del departamento de ciencias de la computación en la Universidad Tufts, que encabezaron esa sesión. ¿Qué ocurre si alguien fabrica una ciberarma diseñada para ocultarse y evitar todo intento de ser desmantelada? Ahora imaginemos que se propaga más allá de su objetivo a la internet más amplia. Piense en Stuxnet, el virus computacional creado para atacar el programa nuclear de Irán que se expandió al mundo, pero más sigiloso y autónomo.

Para evitar un escenario de manipulación del mercado bursátil trazado por Michael Wellman, profesor de ciencias de la computación en la Universidad de Michigan, los miembros del equipo azul sugirieron tratar a los atacantes como software maligno e intentar reconocerlos a través de una base de datos sobre tipos de pirateos conocidos.

También lee: