Alberto Muñoz

Popol Vuh, Leonardo y la obligación de pensar: cuando la tecnología ve más de lo que la sociedad comprende

Estamos entrando a una etapa en la que muchos celebran la capacidad de la IA para clasificar, resumir, predecir, automatizar y optimizar, y sin embargo seguimos corriendo el riesgo de no entender lo esencial: que una sociedad no se reduce a datos.

Acabo de leer el ensayo “Is It 1914 in America?”, de Yonatan Touval (The New York Times, 29/03/26). El texto parte de una observación inquietante sobre la guerra entre Estados Unidos, Israel e Irán: los arquitectos del conflicto disponen de una maquinaria extraordinaria de vigilancia, targeting e inteligencia, pero siguen siendo profundamente simplista para entender a los seres humanos, su memoria histórica, su orgullo, su humillación y sus convicciones. Touval resume esa ceguera con una frase demoledora: nunca se había visto tanto, con tanta precisión, por tanta gente que entendiera tan poco de lo que estaba viendo.

La conclusión del artículo es de una vigencia que va mucho más allá del frente militar. Touval sostiene que la guerra no puede reducirse a una especie de álgebra sofisticada, porque está hecha también de pasión, incertidumbre, relato sagrado, resentimiento, soberanía herida, lealtad y duelo. Por eso advierte que el verdadero fracaso no es solo estratégico, sino cultural: una élite que confunde información con entendimiento y velocidad con juicio termina actuando antes de pensar. La tecnología puede decir dónde está una persona; no puede decir qué significará su muerte para una nación.

Ese argumento, leído en estos días de reflexión inherentes a todo periodo vacacional, debería interpelarnos también en nuestra conversación sobre IA. Estamos entrando a una etapa en la que muchos celebran la capacidad de la IA para clasificar, resumir, predecir, automatizar y optimizar, y sin embargo seguimos corriendo el riesgo de no entender lo esencial: que una sociedad no se reduce a datos, que una cultura no se captura por completo en embeddings, que una obra de arte no se agota en su estilo visual, y que una comunidad humana no puede administrarse como si fuera solo un tablero de variables. Esa es, precisamente, la extrapolación más poderosa que inspira ese ensayo: una civilización tecnológicamente brillante puede volverse intelectualmente miope si deja de cultivar historia, literatura, ética y sensibilidad cultural.

En el arte, esa advertencia es crucial. Podemos entrenar sistemas para imitar técnicas, voces, géneros o escuelas estéticas, pero no por ello comprenderemos automáticamente el contexto humano que les dio origen. En la cultura, la falta de respeto no siempre llega como censura; a veces llega como banalización, como apropiación acelerada, como la falsa idea de que todo puede traducirse, remezclarse y monetizarse sin pérdida. En la sociedad, el peligro consiste en creer que una mejor capacidad de medición equivale a una mejor capacidad de comprensión. En la economía y las finanzas, la tentación es parecida: suponer que un modelo más exacto de riesgo, productividad o consumo ya contiene una visión suficiente del bienestar, de la cohesión social o del costo humano de ciertas decisiones.

La educación merece una mención aparte. Si algo nos enseña este artículo es que formar personas capaces de usar tecnología no basta; hay que formar personas capaces de juzgarla, contextualizarla y limitarla. Un estudiante que sabe programar agentes, entrenar modelos o automatizar procesos, pero no entiende historia, narrativa, simbolismo, economía política y relaciones humanas, puede terminar amplificando exactamente el tipo de ceguera que Touval denuncia en la guerra. Y lo mismo vale para las relaciones interpersonales: ningún sistema sustituye la empatía, la escucha, la paciencia ni la capacidad de reconocer que el otro tiene una lógica propia, una herida propia y una dignidad que no cabe en una métrica.

Hace unos días estuve invitado en el ITESCAM, de Calkiní, Campeche, en un foro particularmente interesante, donde se discutieron con seriedad y profundidad varios de los grandes temas en la filosofía y la ética de la IA. Más allá de las promesas de eficiencia, automatización o innovación, la conversación llevó a una reflexión mucho más fuerte sobre el tipo de sociedad que estamos construyendo con estas tecnologías: quién decide sus fines, bajo qué valores se diseñan, qué sesgos pueden reproducir, cómo afectan nuestra autonomía, nuestra vida pública, la educación, el trabajo e incluso nuestra manera de comprender la verdad y el juicio humano. Lo más valioso de ese espacio fue precisamente recordar que la IA no es solo un asunto técnico, sino también profundamente humano, cultural y político, y que pensarla con responsabilidad exige no solo ingenieros y desarrolladores, sino también filósofos, científicos sociales, educadores y ciudadanos capaces de cuestionar con rigor hacia dónde queremos ir.

Cada vez que regreso a la Península de Yucatán recuerdo la profundidad simbólica del Popol Vuh de donde emerge una lección que hoy resulta especialmente vigente: conocer no es solamente mirar el resultado de las cosas, sino buscar su principio, su origen y su sentido. Esa visión invita a no quedarnos en la fascinación inmediata por lo que una herramienta puede hacer, sino a preguntarnos de dónde nace su poder, qué fuerzas la sostienen y hacia dónde puede conducirnos. En tiempos de IA, esa antigua intuición cobra una fuerza extraordinaria: nuestra responsabilidad no consiste solo en usar la tecnología, sino en comprender la ciencia, la lógica, las virtudes y las consecuencias que la hacen posible. Solo así evitamos una relación superficial con el progreso y recuperamos una actitud más sabia, donde el asombro no reemplaza al entendimiento, sino que lo impulsa.

Tal vez esa sea una de las grandes tareas de nuestro tiempo. No solo construir mejores tecnologías, sino también construir una sociedad intelectualmente más madura para convivir con ellas. Porque el problema no será que la IA vea demasiado; el problema será que nosotros, fascinados por lo que ella puede ver, renunciemos a la pausa necesaria para comprender lo que de verdad importa. Touval lo plantea en el terreno de la guerra; nosotros haríamos bien en asumirlo en el terreno de la vida civil. Si no aprendemos a combinar capacidad técnica con profundidad humana, podremos terminar con sistemas cada vez más poderosos y sociedades cada vez menos sabias.

La obligación, por tanto, aumenta: ya no basta con pensar por separado en lo humano o en lo tecnológico, sino que se vuelve indispensable comprender la ciencia que sostiene cada avance y que hace posible incorporar esa tecnología en nuestra vida cotidiana con verdadero criterio. Solo así podemos distinguir entre el deslumbramiento superficial y el conocimiento sólido, entre el uso pasivo de herramientas y la apropiación consciente de sus alcances, límites y riesgos. En ese sentido, sigue siendo iluminadora la herencia del Renacimiento, cuando figuras como Leonardo da Vinci encarnaron la convicción de que arte, técnica, observación y ciencia debían caminar juntas: no se trataba solo de admirar los artefactos, sino de entender los principios de la naturaleza que los hacían posibles. Esa misma exigencia recae hoy sobre nosotros frente a la IA: no únicamente maravillarnos ante sus resultados, sino estudiar con seriedad los fundamentos matemáticos, computacionales, éticos y sociales que la sostienen, porque solo desde ese conocimiento puede surgir una relación verdaderamente libre, responsable y humana con la tecnología.

COLUMNAS ANTERIORES

La tokenización como instrumento de una urgente nueva política industrial.para México y LATAM
La siguiente frontera de la inteligencia artificial no está en el texto, sino en cómo modelamos la realidad

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.