Nunca voy a olvidar algo que nos dijo un Gobernador a un grupo de líderes empresariales que fuimos invitados a conocer el entonces renovado G5 de seguridad en Yucatán. Palabras más, palabras menos: “Podremos tener la tecnología más avanzada, pero una de las grandes razones de nuestra seguridad es que los Yucatecos estamos muy comunicados unos con otros; cualquier cosa rara que vemos, nos la comunicamos socialmente. Eso siempre va a ser más poderoso que cualquier tecnología”.
La frase me pareció notable porque apuntaba a algo que pocas veces se reconoce en las discusiones sobre seguridad, educación o integridad: las instituciones no funcionan sólo por reglamentos. Funcionan también por hábitos sociales, por señales compartidas, por conversaciones informales, por una cierta curiosidad colectiva que permite detectar lo anómalo antes de que se convierta en crisis.
Esa curiosidad tiene distintos valores sociales según el contexto. En Yucatán puede expresarse como comunicación comunitaria. En una universidad puede expresarse como vigilancia académica entre pares. En una empresa puede aparecer como cultura de cumplimiento. En una ciudad puede tomar la forma de redes vecinales, confianza cotidiana y circulación rápida de información. La pregunta es qué ocurre cuando esa curiosidad social deja de alcanzar para ver lo que debe ser visto y por qué medios.
En Francia, por ejemplo, constaté otra forma de autocontrol. En los últimos años de los ciclos escolares, la competencia académica puede ser tan intensa que nadie está dispuesto a dejarse copiar en un examen. No necesariamente por puritanismo moral, sino porque ese compañero podría terminar ganándole un lugar en el ámbito educativo de su interés. El incentivo social y competitivo produce una regla clara: copiar no sólo es incorrecto; también amenaza la posición de quien sí estudió. Cuando me tocó aplicar exámenes a mis alumnos, esa lógica era visible. Había una conciencia muy fuerte de que permitir la copia era perjudicarse a uno mismo.
En Oxford, la regla operaba de otra manera. Era impensable que alguien siquiera intentara copiar. No hacía falta que todo estuviera escrito. Había normas sabidas. Había una solemnidad institucional, una presión cultural, una idea casi tácita de lo que no se hacía. No porque hubiera un policía en cada esquina del examen, sino porque el sistema había logrado instalar una frontera moral compartida. La trampa no era simplemente una infracción; era una forma de expulsarse simbólicamente de la comunidad académica.
Princeton acaba de hacer algo que, hace unos años, habría parecido casi impensable. La universidad decidió que, a partir del 1 de julio, los exámenes presenciales deberán contar con supervisores. No parece gran cosa si se mira desde fuera. En muchas universidades, un examen sin vigilancia sería visto como una ingenuidad. Pero en Princeton el asunto tiene otro peso: desde 1893, su sistema de honor descansaba en una premisa sencilla y poderosa: los estudiantes no sólo prometían no hacer trampa; también aceptaban la responsabilidad de reportar a quien la hiciera.
Durante más de un siglo, esa idea funcionó como parte de la identidad de la institución. No había vigilantes en el salón. No hacía falta. La confianza no era un adorno moral, sino un mecanismo operativo. El estudiante firmaba su compromiso y la universidad asumía que esa palabra bastaba para sostener cierto orden académico. La inteligencia artificial no destruyó ese ideal, pero sí lo volvió insuficiente.
El problema no es que los estudiantes sean peores que antes. Tampoco que la tecnología, por sí misma, corrompa a quien la usa. El problema es más concreto: la trampa dejó de parecer trampa. Antes, copiar requería gestos visibles. Mirar la hoja del compañero, sacar un apunte escondido, pasar un papel (acordeón), consultar un libro no autorizado. Había una teatralidad mínima de la infracción. Alguien podía verla. Ya en 1982 tenía yo un compañero en la secundaria que escondía su walkman y ejecutaba un audio en su audífono con el audio del código civil que nos obligan a memorizar.
Hoy, un estudiante abre una laptop o revisa un dispositivo y nadie puede saber, desde fuera, si está tomando notas, consultando material permitido o pidiendo a un modelo generativo que le resuelva parte del examen. La frontera entre trabajar, consultar y delegar se volvió opaca. Y cuando la falta no se puede observar, el sistema de honor basado en la vigilancia entre pares pierde su principal instrumento.
Los datos citados en Princeton son contundentes. En una encuesta de 2025 a estudiantes de último año, casi 30 por ciento reconoció haber hecho trampa en alguna tarea o examen. Más de 44 por ciento dijo haber visto una violación al código de honor sin reportarla. Apenas 0.4 por ciento afirmó haber denunciado a un compañero.
Ahí está el verdadero quiebre. No es sólo la IA. Es el colapso del mecanismo social que sostenía el código. La universidad descubrió que no puede seguir pidiéndole a los estudiantes que carguen, solos, con el peso de vigilar a sus pares. Menos aún en un ambiente donde denunciar puede traer aislamiento, represalias digitales, vergüenza pública o conflictos personales. La ética individual sigue importando, pero ya no alcanza para organizar el sistema.
Princeton pertenecía a esa familia de instituciones donde la regla escrita era sólo una parte del acuerdo. Lo demás estaba en la cultura. En el tono. En la mirada de los otros. En la vergüenza de ser visto rompiendo un pacto. Pero la IA generativa altera justo ese punto: lo que antes podía ser visto ahora puede quedar oculto bajo una interfaz perfectamente normal.
Por eso la decisión de Princeton debe leerse con cuidado. No es una renuncia a la confianza. Es el reconocimiento de que la confianza, en la era de la IA, necesita infraestructura. Y esa es una lección importante para cualquier universidad. La reacción superficial sería decir: pongamos supervisores. Cerremos laptops. Prohibamos celulares. Regresemos al papel. Algo de eso puede ser necesario en ciertos exámenes, pero sería una respuesta pobre si se toma como solución completa. La IA no plantea únicamente un problema de vigilancia. Plantea un problema de diseño educativo.
Durante décadas, muchas evaluaciones se construyeron alrededor del producto final: la respuesta correcta, el reporte entregado, el código que corre, el ensayo terminado. Ese modelo se vuelve frágil cuando una herramienta externa puede producir respuestas plausibles, código funcional, resúmenes convincentes y argumentos razonables en segundos. La pregunta ya no puede ser solamente: ¿el estudiante entregó algo correcto?. La pregunta debe ser también: ¿cómo llegó ahí?, ¿qué decidió?, ¿qué descartó?, ¿qué entendió?, ¿qué puede defender?, ¿qué errores detectó?, ¿qué parte hizo con ayuda y qué parte sabe explicar sin ella?
No tiene sentido educar a los estudiantes fingiendo que la IA no existe. Tampoco tiene sentido permitir su uso sin reglas, como si toda asistencia fuera equivalente. Hay que enseñar a usarla, pero también a declararla, auditarla y someterla a juicio técnico. Un estudiante puede usar IA para generar una primera versión de código. Pero debe poder explicar la arquitectura, justificar los parámetros, probar el sistema, detectar fallas, comparar alternativas y responder qué haría si el modelo se equivoca. Puede apoyarse en una herramienta para escribir, pero debe poder defender sus fuentes, su razonamiento y sus decisiones. Puede consultar un modelo para explorar una idea, pero no puede entregar como propio un pensamiento que no entiende.
La evaluación universitaria tendrá que moverse hacia tres niveles. Primero, el producto: lo que se entrega. Segundo, el proceso: bitácoras, versiones, decisiones, pruebas, errores, cambios y aprendizaje visible. Tercero, el criterio profesional: saber cuándo usar IA, cuándo no usarla, cómo validar sus resultados y cómo asumir responsabilidad por lo que se presenta.
Ese tercer nivel será decisivo. En el mundo profesional, nadie le pagará a un ingeniero sólo por producir una respuesta. Se le pagará por saber si esa respuesta es confiable. La diferencia parece pequeña, pero es enorme. La IA puede generar; el profesional debe responder. Por eso el caso Princeton no debe verse como una anécdota de élite académica estadounidense. Es una advertencia para todas las instituciones que todavía creen que sus reglas pre-IA pueden sobrevivir con pequeños retoques. No pueden. Fueron diseñadas para un mundo donde copiar requería exposición física, donde el acceso a ayuda externa era limitado y donde el trabajo individual podía aislarse con relativa facilidad.
Ese mundo se terminó. La confianza no desaparece, pero cambia de forma. Ya no basta con una promesa escrita al final del examen. Ahora requiere reglas explícitas, supervisión proporcional, evaluaciones mejor diseñadas, defensas orales, trazabilidad del trabajo, criterios claros sobre uso de herramientas y una cultura donde la IA no sea clandestina, sino discutida abiertamente. El error sería convertir esto en una guerra contra la tecnología. La guerra está perdida antes de empezar. La tarea real es más difícil: construir una nueva arquitectura de integridad académica para una época en la que la asistencia cognitiva externa será permanente. Princeton no dijo “dejamos de confiar en los estudiantes”. Dijo algo más serio: la confianza sin diseño institucional ya no basta. Y esa frase debería estar en la mesa de todos los consejos académicos.