Javier Murillo

IA, también contra la desinformación

RIO no solo ayuda a reconocer cuando hay flujos de notas simuladas e información errónea, también puede detectar a las personas y grupos que difunden esas narrativas en la red.

La desinformación en la red nos ha hecho víctimas a todos. Incluso quienes pueden presumir de ser precavidos y no caer en las trampas de rumores y mensajes sin sustento, igualmente padecen la difusión de campañas disruptivas que minan la credibilidad, siembran discordia y pueden influir en temas importantes como el resultado de una elección o de medidas sanitarias.

No hay que perder de vista que la lucha contra ese fenómeno incluye combatir tecnología basada en la inteligencia artificial (IA), sobre la cual funcionan muchos de los robots que se usan para distribuir la información tramposa de todo tipo, incluyendo notas llamativas (frecuentemente de hechos falsos o distorsionados) que sirven de gancho para hacer ventas de forma poco ética o diseminar malware en nuestros equipos.

El Instituto de Tecnológico de Massachusetts (MIT, por sus siglas en inglés), desarrolló un software que puede detectar de forma automática narrativas de desinformación en línea.

Ya desde 2017, sus desarrolladores lograron identificar cuentas con desinformación, previo a las elecciones nacionales en Francia. En esa ocasión, ya hace casi cuatro años, el nivel de precisión que su programa pudo alcanzar fue de 96 por ciento, según se documentó fehacientemente.

Bajo el nombre de Reconocimiento de Operaciones de Influencia (RIO, por sus siglas en inglés), esta herramienta ha seguido evolucionando en los últimos años. El MIT informa que se pretende que pronto sea una tecnología al alcance de los sectores público y privado, en muchas naciones, para armarse con una poderosa herramienta de defensa ante la falsedad pública.

Como lo muestran sus propios orígenes, RIO puede tener aplicación inmediata y de alta utilidad en procesos electorales como el que acabamos de pasar en México, donde los vicios en la entrega de datos fraudulentos fue una constante.

RIO no solo ayuda a reconocer cuando hay flujos de notas simuladas e información errónea. También puede detectar a las personas y grupos que difunden esas narrativas en la red, así como el impacto en el cambio y amplificación del mensaje, con lo cual pueden ser evidenciados, y también neutralizados.

Los creadores de esa tecnología recibieron este año un premio luego de publicar un reporte sobre su trabajo en las Actas de la Academia Nacional de Ciencias.

Hay otros recursos similares que comienzan a aparecer y a ofrecer alternativas en contra del fenómeno en referencia. Está, por ejemplo, Amazon Mechanical Turk (AMT), destacada por identificar información errónea o deliberadamente falsa y heurísticas específicas (’atajos’ para tomar decisiones).

Sin dejar de apreciar los esfuerzos que en muchos lados se replican en el desarrollo de estas tecnologías, para auxiliar en la detección de información inconveniente y dañina, no debe pasarse por alto que los esfuerzos por mejorar la educación de los usuarios de las redes sociales, junto con otras cuestiones básicas como la labor del periodismo serio (que debe garantizar siempre que sus publicaciones son fundamentadas y verificadas) deben ser los cimientos en la cultura del uso creciente de la red.

El autor es fundador y presidente del consejo de Metrics.


COLUMNAS ANTERIORES

IA, principal aliada en reclutamiento laboral
La presencia de la IA en cinco tareas cotidianas

Las expresiones aquí vertidas son responsabilidad de quien firma esta columna de opinión y no necesariamente reflejan la postura editorial de El Financiero.