Opinión

En las futuras guerras, las máquinas podrían decidir quién vive y quién muere

10 noviembre 2017 5:0
 
1
 

  

ai

“Me he convertido en la muerte, el destructor de mundos.”
J. Robert Oppenheimer (el padre de la bomba atómica).


¿Quién será reconocido como el padre de la inteligencia artificial?, ¿qué dirá en sus frases célebres? o ¿las frases célebres de la inteligencia artificial las dirá un ser no humano?

Actualmente el Reino Unido se encuentra trabajando en drones intercontinentales del tamaño de un helicóptero que serán capaces de transportar y desplegar armamento en forma autónoma, Rusia por otra parte está trabajando en tanques robots autónomos de largo alcance y Estados Unidos está desarrollando submarinos de gran profundidad y portaaviones transatlánticos dirigidos por inteligencia artificial. Esta carrera armamentista también está propiciando un cambio en el ecosistema de proveedores de armas como es el caso de Samsung que está probando un robot centinela para cuidar la frontera de Corea del Sur, ¿cuánto tiempo tardará en adquirirlo Trump? Parece ser que las guerras del futuro las pelearán máquinas, pero las sufrirán los civiles.

Varios países y líderes empresariales están trabajando en un nuevo acuerdo internacional para prohibir los sistemas automáticos letales, como se hizo con las armas nucleares en 1970.

Como humanidad no podemos olvidar el incidente de los misiles rusos en Cuba que nos llevó al borde de la guerra nuclear.

En una carta firmada por Australia y Canadá se lee: “La consecuencia mortal de esto es que podrían ser las máquinas y no las personas, quienes determinarán quién vive o muere”, en referencia a las armas autónomas controladas por inteligencia artificial.

Elon Musk y Mustafa Suleyman, fundador de Deep Mind adquirida por Google en 2014, lideran a un grupo de 116 especialistas de 26 países al que llaman “Los Fundadores” (de empresas de inteligencia artificial) quiénes suscribieron: “Una vez desarrolladas, las armas letales autónomas permitirán que los conflictos armados se disputen a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos puedan comprender.” Y cierran diciendo “No tenemos mucho tiempo para actuar. Una vez que se abra la caja de Pandora, será difícil cerrarla”.

A partir del próximo 13 de noviembre se llevará a cabo la convención de las Naciones Unidas para la restricción y prohibición de ciertas armas convencionales, algunos la llaman convención contra las armas inhumanas, conocida como la CCW (creada en el 1983). Esta reunión se llevará apenas a cabo puesto que no pudo sesionar en agosto de este año por falta de presupuesto, lo que es irónico por el volumen de inversión que cada año se ejerce en la industria militar en el mundo. El tema principal de la agenda será el uso de armas automatizadas con inteligencia artificial en el campo de batalla y contra poblaciones civiles.

La tendencia indica que eventualmente los robots se volverán más inteligentes que nosotros y que contarán con la fuerza letal para destruirnos. En una entrevista para la revista Wired, Stephen Hawking dijo: “Me temo que la inteligencia artificial puede reemplazar a los humanos por completo. Si las personas diseñan virus informáticos, alguien diseñará inteligencia artificial que mejore y se replique. Esta será una nueva forma de vida que supere a los humanos”.

Hoy debemos tomar decisiones para elegir qué futuro queremos, aquel en el que la inteligencia artificial potencia nuestras capacidades o en el que los robots se rebelan y nos destruyen, si es que nosotros no nos destruimos antes…

*Le damos la bienvenida al columnista, fundador y Presidente del Consejo de Metrics.