Luis Wertman Zaslav

Cuando las máquinas aprenden entre ellas: el nuevo riesgo invisible

La inteligencia artificial ya no solo aprende de nosotros… ahora aprende de otras inteligencias artificiales.

Vivimos un punto de quiebre silencioso. Durante décadas, el conocimiento se transmitía de persona a persona.

Aprendíamos de maestros, libros, experiencia y error. Hoy, eso cambió. La inteligencia artificial ya no solo aprende de nosotros… ahora aprende de otras inteligencias artificiales.

Y esto, aunque suene eficiente, abre una pregunta incómoda: ¿quién está realmente enseñando a quién?

Existe una técnica cada vez más utilizada en el desarrollo tecnológico: la destilación de IA. En esencia, un modelo avanzado “enseña” a otro más pequeño o más nuevo.

No se copia el código ni se replica el sistema completo, pero sí se aprende su forma de responder, su lógica, su estilo. Es como si un alumno no estudiara la materia, sino que memorizara cómo responde el mejor de la clase.

Suena inteligente. Y lo es. Reduce costos, acelera procesos, multiplica capacidades. Pero también introduce un riesgo profundo: la repetición sin comprensión.

Cuando una inteligencia aprende de otra, sin pasar por el filtro humano, puede heredar no solo aciertos… sino también errores, sesgos, omisiones y hasta fallas estructurales. Y lo más delicado: estos pueden amplificarse.

Esto cambia las reglas del juego.

Ya no estamos frente a herramientas que simplemente ejecutan órdenes. Estamos frente a sistemas que se alimentan entre sí, que se refinan entre sí, que evolucionan a partir de lo que otras máquinas generan.

Es, en pocas palabras, conocimiento que se replica sin supervisión suficiente.

¿Y cómo nos afecta esto en la vida real?

Más de lo que creemos.

Desde la información que consumimos hasta decisiones automatizadas en servicios, finanzas, seguridad o atención al cliente.

Si el origen del aprendizaje no es claro, la confianza empieza a debilitarse. Y cuando la confianza se debilita… todo se vuelve vulnerable.

Aquí es donde debemos hacer una pausa estratégica.

No se trata de frenar el avance. Eso es imposible. Se trata de entenderlo, cuestionarlo y establecer límites inteligentes.

Porque si dejamos que las máquinas aprendan entre ellas sin reglas claras, corremos el riesgo de construir sistemas cada vez más rápidos… pero no necesariamente más confiables.

La velocidad nunca debe superar a la responsabilidad.

Por eso, hoy más que nunca, se vuelve indispensable adoptar una postura activa como sociedad, como organizaciones y como individuos.

Primero: no todo lo que parece inteligente es confiable. La sofisticación tecnológica no sustituye el criterio humano.

Segundo: exige trazabilidad. Pregunta de dónde viene la información, cómo se generó, qué la respalda. La opacidad es el enemigo de la confianza.

Tercero: mantén el control. La inteligencia artificial debe ser una herramienta, no un sustituto de tu juicio. Delegar no es abdicar.

Cuarto: establece reglas. En empresas, instituciones y equipos, define claramente hasta dónde se permite el uso de estos sistemas y bajo qué condiciones.

Quinto: forma criterio. La mejor defensa ante cualquier avance tecnológico no es el miedo, es la preparación.

Estamos entrando en una etapa donde el conocimiento ya no solo se comparte… se replica. Y eso cambia todo.

Porque cuando las máquinas aprenden entre ellas, el verdadero riesgo no es que sepan más… es que nosotros entendamos menos.

Y ahí es donde se pierde el control. Hoy la conversación no es tecnológica… es de confianza. Y la confianza, cuando se pierde, no se reemplaza con innovación. Se reconstruye con responsabilidad.

¡Hacer el bien, haciéndolo bien!

COLUMNAS ANTERIORES

El momento en que entendí que el éxito sin sentido es fracaso
Pensar mejor en la era de la Inteligencia Artificial

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.