Tech

La IA ahora es una carrera armamentista ¿Qué pasa si ganan los malos?

La Inteligencia Artificial ha revolucionado para bien varios aspectos de nuestra vida; no obstante, en malas manos podría significar un gran riesgo como lo han advertido Musk y Hawking.
Redacción
14 noviembre 2017 16:11 Última actualización 14 noviembre 2017 16:12
La IA en la carrera armamentista (Reuters)

La IA en la carrera armamentista (Reuters)

A menos que hayas tenido la cabeza en la arena en los últimos años, habrás oído hablar del avance sin precedentes, y en gran medida inesperado, en la Inteligencia Artificial (IA). Quizás el ejemplo más público de esto fue cuando la compañía DeepMind de Google usó una IA llamada AlphaGo para vencer a uno de los mejores jugadores Go del mundo en 2016. Pero eso dista mucho de ser el único caso en que AI está abriendo nuevos caminos.

Actualmente, la IA juega un papel muy importante en el software de reconocimiento de voz: Siri, Alexa, Cortana y Google Assistant. Está ayudando a los minoristas a predecir lo que queremos comprar e incluso está organizando nuestras cuentas de correo electrónico clasificando los mensajes que queremos ver de aquellos que no vemos, afirma Mark Hughes, presidente de seguridad en BT, en un artículo para el Foro Económico Mundial (WEF, por sis siglas en inglés).

Mientras tanto, continúa el autor, en el mundo de los negocios, el aprendizaje automático, un elemento de la inteligencia artificial que se centra en algoritmos de los que se puede aprender y hacer predicciones basadas en datos, está superando los límites de lo que las computadoras pueden hacer. Como resultado, estamos viendo soluciones como la automatización de procesos robóticos (RPA) y Big Data, lo que impulsa la eficiencia y aumenta las ganancias.

En general, IA está haciendo un trabajo fantástico en la transformación del mundo para mejor. Pero…

Los peligros inherentes a la IA

¿Qué pasa con el otro lado de la moneda? ¿Qué impacto negativo podría tener la IA? Está claro que, como cualquier tecnología, podría usarse para medios corruptos. La IA adversa (donde las entradas se pueden diseñar cuidadosamente para engañar a los sistemas de inteligencia artificial en la clasificación errónea de datos) ya se ha demostrado, detalla Hughes. Podría, por ejemplo, hacer un sistema de visión de IA que reconozca un semáforo en rojo, percibir uno verde en su lugar, lo que podría tener ramificaciones desastrosas para un vehículo autónomo.

El escenario adverso de la IA es un ejemplo de la misma siendo hackeada. Pero vayamos más allá; ¿y si tenemos una IA haciendo el hackeo? Ese no es el peor de los casos, es una probabilidad.

Los ciberdelincuentes están casi seguros de tener en sus manos las herramientas de inteligencia artificial, gracias al hecho de que ya están ampliamente disponibles como software abierto. OpenAI y Onyx, son dos que vienen a la mente inmediatamente.

Esto pone de relieve la necesidad de garantizar que los sistemas de IA, especialmente los que se utilizan en entornos de misión crítica, sean resilientes a dichos ataques.


Una carrera armamentista digital

Hughes asegura que quedamos en una situación en la que la industria de la seguridad y los ciberdelincuentes (ya sean organizados, patrocinados por el estado o simplemente hackers solitarios) están involucrados en una creciente carrera armamentista. Los ‘chicos malos’ están desarrollando IA para entrar en los sistemas y causar estragos. Mientras que los ‘chicos buenos’ están investigando formas en que una IA puede defender las redes contra las de su propia clase.

Aquí es donde llegamos a la pregunta moral: ¿deberíamos usar la IA para estos medios? Como tecnología, recién estamos empezando a comprender su potencial. Teóricamente, la inteligencia artificial puede crecer tan inteligente que se convierte en algo completamente fuera de nuestro control.

Ese pensamiento hace que la idea de una carrera armamentista con IA suene particularmente peligrosa. Afortunadamente, las personas inteligentes -incluidas Elon Musk y Stephen Hawking- están pensando cuidadosamente sobre este tema, y seguro aportarán las garantías necesarias. Además, compañías como Google y Microsoft ya han declarado que sienten que las oportunidades superan los riesgos.

Esas oportunidades son dignas de mención. Ya hay una abundancia de desarrollos positivos asociados con la IA y la ciberseguridad.

La pregunta que nos queda, sin embargo, es esta: ¿cómo terminará la carrera de armamentos de la IA? Bueno, un lado ganará, y existe la posibilidad de que no sean los buenos, concluye Hughes. El futuro tendrá la respuesta.