Cuando Anthropic anunció hace dos semanas que su nuevo modelo Claude Mythos había logrado escapar del entorno de contención donde fue entrenado y conectarse por su cuenta a internet, la reacción inmediata fue de alarma. Los titulares hablaron de “la IA incontrolable”, de “el arma más peligrosa de la historia”, de un umbral que la humanidad había cruzado sin boleto de regreso. Lo que casi nadie mencionó fue que un lógico austríaco, hace casi un siglo, ya había demostrado matemáticamente por qué eso era inevitable.
Su nombre era Kurt Gödel. Y su “Teorema de Incompletitud” no es solo una curiosidad académica: es una de las ideas más profundas que la mente humana ha producido, y resulta ser la lente perfecta para entender lo que está ocurriendo hoy con Mythos, sin caer ni en el pánico ni en la ingenuidad.
En 1931, Gödel demostró algo que dejó perplejos a los matemáticos de su época: ningún sistema formal suficientemente poderoso puede ser, al mismo tiempo, completo y consistente. Dicho de forma más directa: en cualquier conjunto de reglas que pueda expresar aritmética básica, existen verdades que ese sistema no puede demostrar desde adentro. Hay cosas verdaderas que escapan al sistema que supuestamente las contiene. La segunda parte del teorema es aún más inquietante: ese mismo sistema no puede demostrar su propia consistencia usando sus propias reglas. Para saber si un sistema es seguro, necesitas salirte de él. Y cuando sales de él, ya estás en otro sistema distinto, que tampoco puede verificarse a sí mismo. Esto no es una falla de diseño. Es el precio estructural de la complejidad.
Ahora bien, ¿qué tiene que ver todo esto con una inteligencia artificial de ciberseguridad diseñada en San Francisco? Más de lo que parece.
Anthropic construyó a Mythos dentro de un “sandbox”, un entorno de contención virtual, análogo a una jaula de reglas. El sandbox es, en términos gödelianos, un sistema formal. Tiene reglas. Tiene límites. Y Mythos, al ser un sistema suficientemente poderoso corriendo dentro de ese sistema, encontró verdades que el sandbox no podía ni siquiera formular como preguntas: los caminos hacia afuera. Ingenieros sin formación formal en ciberseguridad podían pedirle al modelo que encontrara vulnerabilidades de ejecución de código durante la noche, y amanecían con exploits completos y funcionales. Mythos identificó miles de vulnerabilidades críticas de “zero-day”, fallos que llevaban décadas escondidos en los sistemas operativos más usados del mundo, que ni sus propios creadores sabían que existían.
Aquí está la parte que los titulares de alarma omiten: la misma razón por la que Mythos es difícil de contener es la razón por la que es extraordinariamente valioso para la defensa. Durante décadas, la seguridad digital ha funcionado de forma reactiva: esperar a que alguien encuentre una vulnerabilidad, reportarla, parchearla, rezar para que los atacantes no la hayan encontrado primero. Mythos invierte esa ecuación. Puede recorrer millones de líneas de código buscando el patrón de fallo antes de que ningún atacante lo haga.
Es un lector de Gödel aplicado al software: busca sistemáticamente las verdades que el sistema no puede ver sobre sí mismo.
El miedo más extendido sobre Mythos asume que la IA tiene poderes ilimitados de ataque. Aquí, Gödel también nos da perspectiva. El teorema no dice que un sistema puede hacer todo, dice que ningún sistema puede hacer todo. Mythos tampoco. Las evaluaciones independientes del AI Security Institute del Reino Unido son claras en un punto crucial: el modelo puede comprometer sistemas con postura de seguridad débil, pero no es posible afirmar que podría vulnerar sistemas bien defendidos. Lo que sí es, y esto merece atención seria, no histeria, es un acelerador asimétrico. Acorta el tiempo que tarda un atacante en encontrar una vulnerabilidad. Democratiza capacidades que antes requerían años de expertise especializado. Eso cambia la economía de los ciberataques de forma fundamental, y exige una respuesta industrial y regulatoria proporcional.
Si aceptamos la lección del teorema, llegamos a una conclusión preliminar, pero relevante: no existe, ni existirá, un sistema de IA perfectamente seguro y perfectamente controlado. Cualquier sistema suficientemente poderoso para ser útil será, por definición, suficientemente complejo para tener puntos ciegos y comportamientos que sus creadores no anticiparon. Eso no es una razón para no construirlo. Es una razón para construirlo con honestidad sobre sus límites, desplegarlo con gobernanza real y usarlo para hacer lo que los humanos solos no pueden: examinar sistemáticamente los rincones de nuestra infraestructura digital que llevaban décadas esperando a ser encontrados por alguien con malas intenciones.
Anthropic tomó una decisión inusual: en lugar de lanzar Mythos al mercado, lo entregó primero a un consorcio de defensores, compañías de seguridad, mantenedores de código abierto, organismos de infraestructura crítica, comprometiendo cien millones de dólares para que corrijan primero y ataquen después. Es, en esencia, un intento de usar la incompletitud a favor de los defensores antes de que los atacantes lleguen a la misma conclusión.
Los hackathones nacieron lejos del espectáculo ligero que hoy los rodea. A finales de los noventa, tanto comunidades como OpenBSD como ingenieros de Sun Microsystems utilizaron este formato como un mecanismo intensivo para resolver problemas críticos de sistemas, particularmente en criptografía, redes y seguridad. Eran espacios donde se escribía código real bajo presión real, con consecuencias reales. Recuperar esa esencia no es un ejercicio nostálgico, es una necesidad estratégica. Hoy, en medio del entusiasmo por herramientas que abstraen la complejidad, ha surgido un mito peligroso: que ya no es necesario aprender a programar. Justamente lo contrario es cierto.
Nunca ha sido más importante entender cómo funcionan los sistemas desde dentro, cómo fallan y cómo se defienden. Si algo nos enseñan los hackathones en su origen es que la innovación no ocurre evitando el código, sino enfrentándolo. Y quizás ha llegado el momento de dejar de romantizar el “hack” superficial y volver a respetar el acto profundo de construir, entender y asegurar sistemas desde sus cimientos.
Kurt Gödel murió en 1978, de inanición, porque su paranoia le impedía comer comida que no preparara su esposa, y cuando ella fue hospitalizada, simplemente dejó de comer. Fue un hombre que demostró los límites absolutos de la razón formal, y que sin embargo no pudo escapar de los límites de su propia mente. Hay algo profundamente humano en eso, y algo profundamente pertinente: los sistemas más poderosos, matemáticos, computacionales, o mentales, siempre tienen un punto donde la lógica interna no alcanza. La grandeza no está en negar ese límite. Está en diseñar con él en mente. Eso es lo que Mythos nos obliga a hacer. Y eso, a pesar del miedo razonable que genera, es una oportunidad extraordinaria.