Hay algo profundamente revelador en imaginar a un humano del Pleistoceno observando su entorno [1]. No tenía lenguaje técnico, ni modelos matemáticos, ni una interfaz conversacional que le resolviera dudas. Pero tenía algo más fundamental: la capacidad de anticipar.
Leer huellas en la tierra, inferir la presencia de un depredador, decidir si cruzar o no un río, coordinarse con otros para cazar. Esa inteligencia, aparentemente primitiva, no era una cuestión de palabras sino de supervivencia. Era una inteligencia situada en el mundo físico, moldeada por millones de años de interacción directa con la realidad.
Hay algo delicioso al descubrir que, mientras hoy discutimos si la inteligencia artificial “piensa” o solo predice, los registros arqueológicos de aquella época nos recuerdan que la inteligencia, en su forma más esencial, no nació con los chips ni con Silicon Valley ni con los centros de datos. Nació mucho antes, cuando nuestros antepasados comenzaron a seleccionar, transportar y aprovechar recursos con una lógica que ya contenía varios de los rasgos que hoy admiramos en los sistemas inteligentes: anticipación, selección, persistencia, criterio y estrategia.
Lo que se observa no es a grupos humanos recogiendo lo que encontraban a la mano, sino visitas repetidas a fuentes específicas de materia prima, búsqueda deliberada de ciertos materiales y una conducta sostenida durante largos periodos. No se trataba sólo de sobrevivir al día. Había preferencia. Había memoria. Había una noción de calidad. En pocas palabras, había inteligencia, aunque fuera del Pleistoceno.
Hoy, en contraste, vivimos fascinados por sistemas que dominan el lenguaje. Modelos que escriben, argumentan, programan, explican. Y sin embargo, como advierte Yann LeCun, uno de los pioneros de la inteligencia artificial, hemos caído en una ilusión peligrosa: confundir la capacidad de hablar con la capacidad de entender [2].
Su crítica no es menor. Sostiene que los modelos actuales son extraordinarios manipuladores de texto, pero carecen de algo esencial: un modelo* del mundo. No comprenden realmente la física, no anticipan consecuencias, no navegan la incertidumbre como lo haría incluso un adolescente aprendiendo a conducir. La paradoja es contundente. Lo que para nosotros es natural, percibir, moverse, manipular objetos, interpretar escenas, es extraordinariamente difícil para las máquinas. Y eso no es casualidad sino el resultado de una larga historia evolutiva.
Cuando hablamos de inteligencia artificial solemos hacerlo como si la inteligencia hubiera comenzado con el software. Como si todo antes hubiera sido instinto, azar o improvisación. Pero la evolución humana cuenta otra historia. Mucho antes de los modelos fundacionales ya existían decisiones informadas por experiencia previa, evaluación de opciones, optimización de esfuerzo y selección de medios para un fin.
El humano del Pleistoceno no necesitaba redactar ensayos, pero sí construía, sin saberlo, modelos internos del mundo: qué objetos caen, qué animales huyen, qué señales indican peligro. Esa es la base de lo que hoy llamamos sentido común, y es precisamente lo que la inteligencia artificial aún no logra capturar plenamente. La diferencia entre aquella inteligencia encarnada y la de hoy no está en la aspiración sino en la forma. Antes, estos procesos estaban contenidos en cuerpos, territorios, materiales y comunidades. Hoy los encapsulamos en arquitecturas computacionales, funciones de pérdida y enormes volúmenes de datos.
Lo que cambia no es la tendencia de ampliar nuestras capacidades cognitivas sino la velocidad, la escala y el alcance de esa ampliación. Primero fue la piedra elegida con cuidado. Luego el instrumento. Después la máquina. Hoy, el modelo generativo. La inteligencia artificial no representa una ruptura absoluta con la historia humana sino una aceleración brutal de algo muy viejo: externalizar descripciones (métodos->algoritmos->software) y capacidades cognitivas en herramientas (hardware) cada vez más poderosas.
Desde esta perspectiva, la discusión actual adquiere una nueva profundidad. Mientras gran parte de la industria invierte en escalar modelos de lenguaje, surgen voces que apuntan hacia otra dirección: sistemas capaces de aprender directamente de la realidad, de videos, sensores, interacciones físicas. No se trata de generar texto más convincente sino de construir representaciones abstractas (modelos) del mundo que permitan predecir, planear y actuar. En otras palabras, regresar, en cierto sentido, al tipo de inteligencia que hizo posible la supervivencia en el Pleistoceno. Y eso no es solo un debate técnico sino una cuestión estratégica.
Si la inteligencia del futuro depende de comprender el mundo y no solo de describirlo, entonces las sociedades que prosperen no serán las que simplemente consuman herramientas de lenguaje sino las que desarrollen capacidades para modelar su propia realidad: sus ciudades, sus industrias, sus sistemas de salud, su movilidad. Hay además una lección que conviene no perder de vista. Si desde etapas tan tempranas de la evolución ya existía una conducta de selección especializada de recursos, entonces la inteligencia nunca fue solo una cuestión de pensamiento abstracto sino también de infraestructura.
Quien sabía dónde encontrar la mejor materia prima, cómo obtenerla y para qué reservarla, tenía ventaja. Esa lógica no ha desaparecido, sólo cambió de forma. En el siglo XXI, la materia prima ya no es únicamente la piedra sino los datos, la energía, los semiconductores, la conectividad y el talento capaz de convertir todo eso en sistemas funcionales. Por eso resulta tan limitado hablar de IA únicamente como un tema de software. La larga historia de la inteligencia humana muestra que pensar mejor siempre ha estado ligado a conseguir mejor, organizar mejor y decidir mejor.
Al final, el mayor error de nuestra época quizá no sea sobreestimar a la inteligencia artificial sino subestimar lo que realmente significa ser inteligente. La IA no inaugura la historia de la inteligencia, apenas escribe su capítulo más reciente. Y como todo capítulo relevante, será juzgado no solo por su potencia técnica sino por lo que revela sobre nosotros mismos. Porque la inteligencia, aunque sea del Pleistoceno, no empezó conversando: empezó anticipando.
*Para quienes quieran ahondar en estas ideas, vale la pena seguir el trabajo de Yann LeCun y sus colaboradores. En marzo de 2026 publicaron un paper titulado “Why AI systems don’t learn and what to do about it: Lessons on autonomous learning from cognitive science” [3], donde examinan críticamente las limitaciones de los modelos actuales para lograr aprendizaje autónomo y proponen una arquitectura inspirada en la cognición humana y animal. El marco integra aprendizaje por observación y aprendizaje por comportamiento activo, con señales de metacontrol que permiten alternar entre ambos modos, tomando como referencia la forma en que los organismos se adaptan a entornos reales y dinámicos a lo largo de escalas evolutivas y de desarrollo. Es, en muchos sentidos, un intento formal de construir lo que el humano del Pleistoceno ya hacía por instinto.
[1] https://www.nature.com/articles/s41467-026-70783-8
[2] https://www.technologyreview.com/2026/01/22/1131661/yann-lecuns-new-venture-ami-labs/