Alberto Muñoz

El algoritmo, la percepción pública de la ciencia

Alberto Muñoz señala que el abuso del término inteligencia artificial confunde muchas veces sobre sus verdaderas capacidades.

Desde el inicio de los tiempos el aprendizaje ha venido conformado el acervo cultural que heredamos. La experiencia es un baúl de aprendizajes que se pueden sintetizar en un conjunto finito de sugerencias que nos permite aprovechar ese bagaje de conocimientos y experiencias para no tener que repetir errores, los cuales fueron el origen mismo del aprendizaje. Eso es justamente lo que se ha intentado construir con las computadoras que hoy permean la gran mayoría de nuestro días y que sin lugar a dudas, definen cada vez más nuestra interacción, aprendizaje mismo e incluso, el futuro de nuestro planeta. Lo que no se puede medir, no se puede controlar: ese es uno de los más grandes paradigmas entre la fundamentación científica para el planteamiento de escenarios futuros. A partir de la creación de modelos basados en datos, podemos identificar las componentes principales que definen el comportamiento de las circunstancias que queremos entender.

Pero ni la física ni las matemáticas actuales nos alcanzan para poder soportar la creación analítica de fenómenos que rigen nuestro realidad de todos los días: hemos logrado predecir cómo se moverá la luna con respecto al sol y lo más seguro es que los astrónomos no se equivoquen nunca más, pero hasta ahora de poco nos sirven dichos modelos para saber por ejemplo, cómo mitigar todavía el cáncer ni aliviar padecimientos psiquiátricos, ni mucho menos saber a ciencia cierta, los resultados de una elección popular. Tenemos aproximaciones cada vez más veloces al entendimiento de sistemas complejos, pero todo esto es gracias al uso de las computadoras y los algoritmos que se ejecutan dentro de dichos conglomerados de transistores.

El pasado mes de octubre, la revista SPECTRUM de la IEEE publicó un reporte especial que tituló “¿ Por qué la Inteligencia Artificial (IA) es tan tonta ? (Why is AI So Dumb ?). Dicha percepción pública de la ciencia es un reflejo del sentir que mayoritariamente tienen las sociedades sobre las expectativas tan amplias que provoca la proliferación - y abuso - del término “IA” en los medios de comunicación, así como sus posibles repercusiones y sus - hasta hoy - limitados resultados. En dicho ejemplar se discute desde el pasado e incierto futuro de la IA, así como explica a bastante detalle de la surgencia de metodologías denominadas Deep Learning. Explica su espectro - tan limitado todavía - de aplicación así como, entre otras cosas, las enormes implicaciones e importancia de la participación humana, no solo en la concepción de dichos algoritmos sino en el involucramiento mismo de la subjetividad que implica el considerar conductas basadas en la individualidad humana como parte de la conformación del aprendizaje que implica cierta inteligencia no-humana de las máquinas.

Parte central de los artículos utilizan de forma invariable ejemplos así como ilustraciones que animan - y que nos generan imágenes visuales - con robots de distinta naturaleza. No puedo negar cierta proclividad subjetiva pues me he dedicado a la robótica desde hace más de 30 años, sin embargo me parece una tendencia equivocada el de insistir en “personalizar”(sic) las capacidades de razonamiento más sofisticadas con robots, mientras que dicha inteligencia artificial y sus capacidades están principalmente disponibles cada vez más en la casi totalidad de nuestros espacios de vida, con o sin robots.

COLUMNAS ANTERIORES

Wayve escapa a la sobrerregulación en IA y asegura su posición como unicornio
Innovación y Legado Celebrando 60 Años de Tecnología Computacional en el Tec de Monterrey

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.