El pasado 3 de febrero llegó a mi bandeja de entrada un correo de Chris Best, CEO de Substack donde informaba a todos los creadores de la plataforma que ocurrió un incidente: un tercero accedió en octubre de 2025 a datos limitados como correos y teléfonos; lo detectaron el 3 de febrero; y según su propio reporte no se tocaron contraseñas ni información financiera. No era un “todo está bajo control” ficticio. Era rendición de cuentas clara. No está pidiendo fe; está mostrando transparencia.
En manufactura, este principio se parece a un tablero de control visual: se registra lo del día a día, incluidos los defectos, no para culpar a alguien, sino para decir: “aquí está la anomalía; hay que entender la causa y eliminarla”.
Mientras tanto en nuestro país se vive una realidad alterna. En un mundo donde la exposición de datos se ha vuelto un riesgo cada vez más latente, se están impulsando esquemas de registro centralizado bajo amenaza de desconexión.
Y no es una opinión, es un mensaje que desde el 9 de enero del 2026 semana a semana ha estado llegándole a millones de personas y empresas con línea registrada en nuestro país. “¡Evita perder tu conexión! Por disposición oficial, debes vincular tu línea a tu INE antes del 30/jun/26 para seguir conectado”.
La ironía es simple, pasamos de “confía en tu operador” a “confía en el sistema porque es obligatorio”. La confianza ya no se construye; se exige.
El detalle es que ya se reportaron vulnerabilidades en el arranque: alertas sobre exposición/consulta de datos asociados a líneas durante el proceso, lo que abrió el debate sobre salvaguardas y capacidad real de protección. Incluso, se documentó que Telcel reconoció una vulnerabilidad técnica en su portal de registro.
A este panorama hay que agregarle otra variante: Moltbook. No es una red famosa entre “la gente”, porque es una red social pensada para agentes de IA (bots hablando con bots). Pero se volvió noticia no por su genialidad, sino por un agujero de seguridad señalado por una firma de ciberseguridad; Reuters lo recogió como parte del debate sobre los riesgos de esta nueva ola “agentic”.
No necesitas ser paranoico para ver el patrón: la fiebre por meter IA a todo lo digital está produciendo sistemas que tocan datos reales con controles opcionales. Y cuando un sistema toca datos reales, el daño ya no es solo “me robaron algo”; también es “alguien (o algo) pudo alterar algo”.
Los tres casos apuntan a lo mismo: estamos viviendo una descalibración colectiva. Substack, al menos, dijo: “aquí estuvo la desviación” y mostró sus cartas. El registro de líneas te pide que confíes porque “así lo marca el sistema”. Y Moltbook es el recordatorio de que el FOMO (Fear of Missing Out) está creando plataformas nuevas conectadas a credenciales y datos reales, a veces con controles opcionales.
Casi todos hablamos de “filtración” como si ese fuera el peor escenario. Pero la filtración, por dura que sea, deja huella. La integridad rota no. Es silenciosa. Es el dato que cambia sin bitácora, el registro que se “corrige” solo, la base de clientes que se “limpia” con buena intención y mala trazabilidad.
En la manufactura lo explicamos fácil: Si mides con un instrumento descalibrado te hace producir con seguridad… sobre un error. Y cuando la IA entra a procesos por moda, tocando datos, escribiendo en sistemas el riesgo deja de ser “que alguien vea tu información” y se convierte en algo más serio: que dejemos de saber qué información es verdad.
Y no es algo que solo afecta a los países más desarrollados, se ve en lo cotidiano. Lo vemos cuando un vendedor jura que “ese precio siempre fue el correcto”. Finanzas asegura que el margen cayó “de la nada”. Operaciones insiste en que el inventario “estaba bien ayer”. Y lo peor es que nadie está mintiendo: simplemente están discutiendo sobre un dato que ya no tiene historia.
Porque cuando el sistema se descalibra, los datos pierden su atributo más importante: la trazabilidad. Ya no sabes quién lo tocó, cuándo cambió, ni bajo qué lógica. Y en ese momento el dato deja de ser evidencia… y se convierte en opinión, solo que con formato de reporte ejecutivo.
Mi invitación es cambiar la conversación.
Porque una filtración asusta, sí, pero la pérdida de integridad es más grave y perversa; no siempre es por un intruso. A veces es un sistema “bien intencionado” que automatiza, corrige, duplica, reescribe. Y como estamos en plena moda de la digitalización, lo conectamos a producción como si fuera un plugin de Spotify: “a ver qué pasa”… sin entender que estamos poniendo en riesgo la capacidad de tomar decisiones sin dudar de la evidencia.
No estoy diciendo que debemos frenar la adopción de la IA. Lo que tenemos que frenar es el FOMO.
Porque si a la IA le das acceso a la manipulación de tus datos sin gobernanza lo que se pierde no es solo privacidad: se pierde integridad.
La ironía es que la IA se vende como acelerador, pero sin controles termina siendo freno. Porque te deja operando con una duda diaria: ¿esto es verdad… o solo es la última versión del sistema?
