Alberto Muñoz

De OpenAI a Anthropic: la familia que terminó en el Pentágono

La inteligencia artificial ha dejado de ser una herramienta tecnológica para convertirse en infraestructura estratégica del Estado, señala Alberto Muñoz.

Si usted despertó esta semana pensando que la inteligencia artificial era solo una herramienta para escribir correos más rápido o programar mejor, o sistemas multiagentes que le pueden construir una agencia de viajes virtual con tan solo escribir un prompt, quizá ya esté desactualizado. En cuestión de días, una de las empresas más importantes de IA fue señalada como riesgo estratégico por el Departamento de Defensa de Estados Unidos, otra anunció que desplegará sus modelos en redes clasificadas del gobierno, y el debate dejó de ser técnico para convertirse en una pregunta importante: ¿quién controla la inteligencia artificial que organiza el mundo?

La historia reciente de la IA ilustra un fenómeno notable: incluso las empresas tecnológicas más poderosas del mundo reconocieron que no podían desarrollar internamente las capacidades de IA que necesitaban para mantenerse a la vanguardia. Microsoft, con todos sus recursos y talento, realizó una inversión multimillonaria en OpenAI - la creadora de ChatGPT y la serie GPT- para integrar inteligencia artificial generativa en todo su ecosistema, desde Azure hasta Office. De manera similar, Google, pese a contar con algunos de los mejores investigadores del planeta y haber sido pionera en deep learning con TensorFlow, adquirió DeepMind en 2014, reconociendo en ese laboratorio británico una visión y capacidad de investigación fundamental que complementaba su propia fortaleza ingenieril. Estos movimientos estratégicos reflejan una verdad profunda sobre el estado actual de la tecnología: la inteligencia artificial se ha convertido en un activo tan transformador y tan complejo que ni siquiera los gigantes tecnológicos pueden darse el lujo de quedarse atrás, y a veces la forma más inteligente de innovar es reconocer la genialidad donde florece y asociarse con ella.

Pero hay una capa aún más profunda que apenas empieza a discutirse públicamente: la soberanía computacional. En Europa, varios Estados han acelerado planes para desarrollar modelos fundacionales propios, no solo por orgullo tecnológico sino por dependencia estratégica. Francia y Alemania impulsan consorcios público-privados; Emiratos Árabes y Arabia Saudita invierten miles de millones en clusters propios con acceso privilegiado a GPUs de última generación; Japón refuerza alianzas entre industria y academia para evitar dependencia absoluta de proveedores estadounidenses. Lo que antes era debate sobre “chips” ahora es debate sobre “modelos”. El país que no controla ni su silicio ni su arquitectura cognitiva queda estructuralmente subordinado.

Y bueno, ahora Anthropic: justo una empresa que, irónicamente, nació a partir de OpenAI. La escena tiene algo de comedia sobria: el “árbol genealógico” de la IA se ha vuelto tan influyente que hasta sus “ramas” empiezan a ser tratadas como asunto de seguridad nacional. Lo que comenzó como un conflicto administrativo se transformó rápidamente en una discusión sobre vigilancia, poder estatal, competencia tecnológica y el futuro del mercado global de IA. Para entenderlo con claridad, conviene ir paso a paso. La chispa inicial fue la designación de Anthropic como “supply chain risk” por parte del Departamento de Defensa estadounidense. Esta etiqueta implica que empresas que trabajan con el Pentágono deben certificar que no utilizan la tecnología señalada en contratos vinculados con defensa. No se trata simplemente de perder un contrato; es una señal institucional que puede afectar a todo un ecosistema corporativo.

Anthropic respondió anunciando acciones legales y defendiendo una postura centrada en principios: no permitir vigilancia masiva doméstica ni uso autónomo de fuerza letal sin control humano. Según su interpretación jurídica, el estatuto aplicable limita la designación exclusivamente al trabajo contractual con el Pentágono y no debería afectar el uso comercial general de su modelo. Sin embargo, en los mercados financieros la percepción de riesgo pesa tanto como el texto legal. Cuando una empresa tecnológica recibe una etiqueta asociada históricamente a amenazas estratégicas - como ocurrió con Huawei- el impacto reputacional es inmediato.

En medio de esa tensión, Sam Altman anunció que OpenAI alcanzó un acuerdo con el Departamento de Defensa para desplegar sus modelos en redes clasificadas. El comunicado subrayó que el contrato incorpora líneas rojas explícitas: prohibición de vigilancia masiva doméstica y responsabilidad humana en el uso de la fuerza, incluso en sistemas autónomos. Además, se incluirían salvaguardas técnicas y supervisión para garantizar el comportamiento del modelo.

Este movimiento representa una transición conceptual silenciosa pero profunda: la IA deja de ser un copiloto y comienza a convertirse en sistema operativo del Estado. Desde logística militar hasta análisis de inteligencia, desde planificación presupuestaria hasta simulaciones estratégicas, los modelos fundacionales empiezan a integrarse como infraestructura decisional. Históricamente, cuando una tecnología entra en redes clasificadas, cruza un umbral. Sucedió con el GPS. Sucedió con internet. Está sucediendo con la inteligencia artificial.

El contraste es llamativo. Mientras una empresa litiga por principios y límites, otra coopera institucionalmente bajo cláusulas formales que, al menos en el discurso público, reflejan esas mismas restricciones. Esto no significa necesariamente incoherencia gubernamental; puede tratarse de diferencias técnicas o contractuales no visibles desde fuera. Pero sí revela algo más profundo: los modelos fundacionales de IA han dejado de ser simples productos comerciales. Son infraestructura estratégica.

Y como toda infraestructura estratégica, comienzan a influir también en la arquitectura financiera. Los mercados ya no valoran únicamente ingresos actuales, sino posición dentro del ecosistema geopolítico emergente. Acceder a redes clasificadas implica legitimidad institucional. Ser señalado como riesgo estratégico implica descuento implícito de riesgo soberano. La IA empieza a cotizar como infraestructura crítica.

En paralelo, existe un tercer actor cuya presencia es menos estridente pero estructuralmente decisiva: Google DeepMind. Fundada por Demis Hassabis y adquirida por Google, DeepMind proporcionó a Google un núcleo científico que la empresa no había logrado consolidar internamente con la misma profundidad. A diferencia del protagonismo mediático de Altman o la narrativa ética de Anthropic, Google DeepMind opera con discreción. Sin embargo, está integrada en una de las infraestructuras de datos y nube más poderosas del planeta. Su influencia no necesita dramatización; está incrustada en el sistema. Otros jugadores buscan posicionamiento. Elon Musk, con xAI, ha intentado construir una alternativa discursiva y tecnológica, pero el desarrollo de modelos fundacionales exige una combinación de talento acumulado, infraestructura y tiempo que no se improvisa. Meta, con la tradición científica de Yann LeCun, mantiene presencia relevante, aunque no ha logrado el mismo liderazgo estructural reciente en modelos de frontera. Más allá de la competencia empresarial, lo que está en juego es poder blando en su forma más sofisticada. El concepto formulado por Joseph Nye describía la capacidad de influir mediante cultura y valores. Hoy esa influencia pasa por sistemas que median información, sintetizan argumentos y organizan conocimiento. Un modelo de IA no solo responde; encuadra. Prioriza. Explica desde determinados marcos. Si millones de personas interactúan diariamente con una arquitectura cognitiva diseñada sujeta a ciertos principios, esos principios se normalizan.

Y aquí aparece un fenómeno aún más delicado: la posible fragmentación cognitiva global. Si Estados Unidos integra modelos sujetos a su marco regulatorio, China tiene otros marcos regulatorios, Europa tiene sus propios marcos y bloques emergentes posee arquitecturas regulatorias híbridas, el mundo no solo se fragmenta comercialmente, sino epistemológicamente. Diferentes sociedades podrían interactuar con sistemas que priorizan fuentes distintas, marcos distintos y valores distintos. No sería únicamente una competencia tecnológica; sería una divergencia en la manera en que poblaciones enteras procesan información.

Aquí entra un elemento poco discutido: la personalidad de los líderes. Dario Amodei proyecta prudencia técnica y enfoque en riesgos sistémicos. Su empresa enfatiza contención, alineación rigurosa y límites explícitos. Sam Altman combina ambición expansiva con pragmatismo político; busca integrar la IA en múltiples esferas, incluida la defensa, bajo marcos contractuales de seguridad. Demis Hassabis encarna la tradición científica profunda, menos mediática pero estratégicamente anclada en infraestructura global.

En esta etapa temprana, los modelos todavía reflejan algo del temperamento de quienes los dirigen: cautela en un caso, pragmatismo expansivo en otro, rigor científico silencioso en un tercero. Pero surge una pregunta inevitable: ¿cuánto tiempo puede mantenerse esa correspondencia entre personalidad y sistema? A medida que estas empresas se conviertan en infraestructura crítica global, la gobernanza será cada vez más corporativa, regulada y sistémica. Las decisiones dependerán menos de convicciones individuales y más de equilibrios entre juntas directivas, Estados y mercados.

Y allí emerge el dilema democrático central: si los modelos fundacionales son infraestructura estratégica, ¿deben operar bajo gobernanza corporativa privada, bajo esquemas híbridos Estado-empresa o bajo marcos multilaterales? La historia muestra que cuando tecnología y poder estatal convergen sin contrapesos, la tentación expansiva es fuerte. Pero también muestra que la innovación se ralentiza cuando la burocracia domina la arquitectura técnica. La gobernanza de la IA podría convertirse en el experimento institucional más complejo del siglo XXI.

Lo ocurrido esta semana no es un episodio aislado. Es un síntoma de una transición histórica. La inteligencia artificial ya no es solo una industria; es arquitectura de poder. Se negocia en tribunales, en contratos clasificados, en mercados financieros y en la opinión pública. Y en ese proceso, se redefine la relación entre empresa privada, Estado y ciudadanía.

La pregunta final no es quién ganó esta semana. La pregunta es qué tipo de orden tecnológico está emergiendo. Uno donde la inteligencia artificial no solo optimiza procesos, sino que organiza la forma en que entendemos el mundo. Y en ese orden, la competencia no será únicamente por mercado, sino por legitimidad, principios y confianza.

Porque al final, lo que está en juego no es un contrato. No es una valoración bursátil. No es siquiera la competencia entre empresas. Es quién diseña la capa cognitiva que intermedia entre los humanos y la realidad. En el siglo XX, las superpotencias competían por territorio físico. En el XXI, compiten por territorio computacional. Y el territorio más valioso ya no es geográfico. Es epistemológico.

COLUMNAS ANTERIORES

Unicornios tecnológicos: Cuando la ciencia que se toma en serio para la innovación en IA Generativa y Robótica
¿Quién se queda con el excedente en la era de la IA? Una lectura Ricardiana del shock tecnológico

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.