Tech

La Inteligencia Artificial: amenaza u oportunidad

Para Javier Murillo Acuña, Chairman of the Board and Founder of Metrics, desarrollar inteligencia artificial que sea segura deberá ser nuestra prioridad.

Todos los seres vivos nacemos con un código preprogramado en nuestro ADN, ese código da forma a nuestras características físicas (hardware) y la forma en que actuamos (software). Ambos hardware y software humanos están diseñados para sobrevivir, tenemos el instinto de supervivencia grabado en el código original y ese instinto es el que rige todos los aspectos de nuestra existencia.

El científico Neil deGrasse Tyson en una conferencia en la que reflexionó sobre la inteligencia humana y la de los chimpancés, aseguró que compartimos el 99% del código grabado en el ADN con nuestros "primos" primates, con quiénes tenemos un ancestro común. La diferencia de capacidad entre nosotros y ellos radica tan solo de ese 1% que es diferente. Eso quiere decir que todo lo que hemos sido capaces de lograr como humanidad, iniciando por la conciencia, que nos llevó a conquistar la belleza a través del arte, a entender y controlar nuestro entorno a través de la ciencia se encuentran almacenados en no más de 50 genes que encierran la esencia de lo humano, ¿podemos crear máquinas inteligentes y a la vez humanas como nosotros?

Un grupo de expertos en inteligencia artificial que reunió Nick Bostrom con el fin de prever el año en el que las máquinas serían igual de inteligentes que un ser humano, esto es, que una computadora pueda resolver un dilema general (no sólo específico) al mismo nivel que lo hace un individuo adulto. La respuesta de los expertos fue que la inteligencia artificial tendrá el 10% de la capacidad humana para el 2022, el 50% en el 2040 y el 100% de la inteligencia humana para el 2075. Sea antes o después, a menos que frenemos el desarrollo tecnológico, parece inevitable que un día llegue ese momento cumbre para la humanidad y que nuestra creación sea tan inteligente como su creador. La pregunta es, cuando las máquinas sean más inteligentes que los humanos, aunque sea por el 1%, ¿nos verán como nosotros vemos a los chimpancés?

Sabemos que sin importar las circunstancias, la visión de la presunta inteligencia artificial será la misma que la de nosotros, sobrevivir. Pero, ¿qué sucede si en algún momento hubiera discrepancias en la misión de un ser inteligente artificialmente y la del ser humano? Estaríamos en desigualdad de circunstancias, ya que las máquinas no solo serían seres más inteligentes, sino tendrían control sobre nuestra tecnología. Más dramático aún, ¿qué pasaría si la humanidad se interpusiera en el camino, o peor, representara una amenaza para ese ser superinteligente? Nuestro final sería inevitable. Sam Harris, filósofo y neurocientífico, hace una analogía del humano con las hormigas. Aunque no las odiamos, no son una amenaza e incluso evitamos pisarlas si están en nuestro camino, no reparamos en acabar con ellas, por ejemplo, cuando un hormiguero se encuentra en el centro de un terreno en el cual queremos construir un edificio.

Más allá de la aproximación filosófica, en la actualidad existen dos grupos en debate frontal. Por un lado está Mark Zuckerberg que se define como un optimista, que piensa que la inteligencia artificial nos va a beneficiar como humanidad y en el otro se encuentra Elon Musk, el pesimista, que se encuentra en una cruzada para regular la inteligencia artificial, más preocupado por lo que pueda suceder en términos de su uso (o abuso) militar. Imaginemos la ventaja que representaría para cualquier país estar a la vanguardia tecnológica por sobre sus enemigos, aunque sea 6 meses, en cuanto a armamento inteligente se refiere.

Es un hecho que la discusión, más allá de si uno es optimista y el otro pesimista, está basada en ¿quién va a influir en las regulaciones, tratados y leyes que necesariamente se tendrán que articular? Al final todo será un tema económico, ¿qué corporación será la que lidere la inteligencia artificial en los próximos 50 años? Será Zuckerberg, que tiene la información social de la humanidad y por tanto la posibilidad de influir en nuestras decisiones (por ejemplo, las elecciones de los Estados Unidos en el 2016) o Musk (de origen Sudafricano), quien promete colonizar Marte y hacer de los humanos una raza interplanetaria. Por lo pronto, esta parece ser una guerra de corporaciones tecnológicas y no de instituciones o países, lo que hace aún más complejo proponer un orden mundial que no esté basado en la economía.

El dilema no es solo tecnológico, sino moral. Desarrollar inteligencia artificial al nivel (al menos) de la inteligencia humana, es un gran reto tecnológico, hacer que esa tecnología sea segura, antes de que las máquinas se tornen más inteligentes que la inteligencia humana, no solo representará un reto, sino un riesgo y deberá ser nuestra prioridad. Si no es así, tal vez nos veremos como en el póster de la portada de la Revista New Yorker, en el que se observa a un humano indigente y su perro (animal) pidiendo limosna a robots vestidos de magnates; máquinas que paradójicamente, en algún momento nos sirvieron y presumiblemente nos terminarán dominando, a nosotros y al planeta, o lo que quede de él.

Estamos a tiempo de cambiar la historia, pero tendríamos que comenzar hoy, hacerlo juntos y pensar en el bien común, ¿seremos capaces? Veremos en 50 años.

Javier Murillo Acuña es Chairman of the Board and Founder of Metrics
https://www.linkedin.com/in/javiermurilloacuna/
@JavierMurillo

También lee: