Finanzas e Inteligencia Artificial

Sam Altman, Rich Sutton y el futuro incierto de la IA

Si América Latina quiere tener un papel en la historia de la inteligencia artificial, debe entender esto a tiempo: no basta con ser cliente de la infraestructura global, hay que decidir cómo y para qué se va a usar.

Cuando Nvidia y OpenAI anunciaron este mes una alianza más profunda, muchos lo vieron como un simple acuerdo entre empresas. En realidad fue otra cosa: una señal de que el poder en inteligencia artificial ya no depende solo del talento o las ideas, sino de quién controla la electricidad, los chips y los centros de datos.

Durante mucho tiempo, los gobiernos apenas prestaron atención a este tema. La tecnología avanzaba sola y la discusión se centraba en la privacidad o el uso de los datos. Eso terminó. Hoy entrenar los sistemas de IA más avanzados requiere la energía de ciudades enteras, agua en cantidades enormes para enfriarlos y un tipo de computadoras que solo unos pocos países producen. Quien no tenga acceso directo quedará rezagado. Washington limita la exportación de chips como si fueran armas estratégicas, Bruselas regula la IA con base en la cantidad de cómputo, y Asia invierte miles de millones en fábricas y centros de datos. El cómputo se ha vuelto una moneda de poder.

El problema es que todo este esfuerzo se está concentrando en un solo tipo de inteligencia artificial: modelos que imitan lo que ya existe. Como advierte el científico Rich Sutton, son muy buenos para predecir palabras, pero no saben aprender de la experiencia ni adaptarse al mundo real. Sutton teme que nos estemos encerrando en un callejón sin salida: máquinas cada vez más grandes, que consumen cada vez más energía, pero que no aprenden de verdad.

Al mismo tiempo, Sam Altman, director de OpenAI, reconoce que una gran parte de la electricidad del planeta podría terminar usándose solo para mover estos sistemas. Un nuevo centro de datos de la compañía consumirá cerca de 900 megavatios, lo mismo que una ciudad mediana. Estamos hablando de infraestructura del tamaño de urbes enteras destinada a sostener máquinas que, por ahora, saben repetir pero no pensar.

El riesgo es evidente: gastar miles de millones en infraestructura que escala en consumo de energía, pero no en verdadera inteligencia. Y esa inversión no solo concentra poder, también moldea cómo pensamos la IA. Si creemos que el futuro se reduce a hacer los modelos más grandes y potentes, dejamos de explorar otros caminos. El dinero invertido crea incentivos para seguir alimentando la misma máquina, aunque sea un camino que no conduzca a la inteligencia que buscamos.

La alternativa es clara: pensar el cómputo como infraestructura esencial, pero diversificar las apuestas. Invertir en formas de IA que aprendan de la experiencia, que se adapten, que hagan algo más que repetir. Crear espacios regionales que aseguren acceso a cómputo, pero también apoyar a investigadores que exploren nuevas rutas, desde el aprendizaje por refuerzo hasta la simulación. El futuro no se decidirá solo con más máquinas, sino con la visión de usarlas para aprender de verdad.

El cómputo es la nueva moneda del poder. Pero la escala, por sí sola, no basta. Podríamos terminar con centros de datos que consumen lo mismo que ciudades enteras, varados en un paradigma que nunca aprendió a pensar. Si América Latina quiere tener un papel en la historia de la inteligencia artificial, debe entender esto a tiempo: no basta con ser cliente de la infraestructura global, hay que decidir cómo y para qué se va a usar.

COLUMNAS ANTERIORES

El ouroboros de OpenAI
El futuro de las películas en la era de la Inteligencia Artificial

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.