Financial Times

El 'deepfake' y su impacto distorsionador en la política y los medios

Este proceso de imitación de patrones del habla y de imágenes realizado con IA podría tomar el lugar de algún político, fabricar una amenaza y provocar alguna crisis o bien, un incidente de seguridad.

Recientemente, me mostraron docenas de pequeñas imágenes de Donald Trump, algunas reales, otras creadas digitalmente. Me resultó imposible distinguir unas de otras. Cuando me pidieron que escogiera tres que posiblemente fueran falsas, sólo elegí una correctamente.

El ejercicio fue una introducción a la amenaza de seguridad inminente de la tecnología "deepfake", un proceso de imitación de patrones del habla y de imágenes realizado con inteligencia artificial para crear realidades alternativas, en las que alguien parece estar diciendo o haciendo cosas que nunca dijo o hizo.

En su forma más simple, las imitaciones "deepfake" se crean dándole instrucciones a una computadora y alimentándola con imágenes y audio de una persona para enseñarle a imitar la voz de esa persona (y posiblemente mucho más). Ya hay una aplicación para hacerlo: FakeApp (y vídeos tutoriales sobre cómo usarla) y una comunidad digital subterránea que superpone caras de celebridades sobre las imágenes de actores en videos pornográficos.

Actualmente las producciones "deepfake" son imperfectas y pueden detectarse, pero la tecnología está progresando rápidamente. Dentro de dos o tres años tal vez veamos videos y discursos sin poder detectar si son reales o fabricaciones.

En un fascinante estudio, los investigadores de la universidad de Washington aprendieron a generar videos de Barack Obama a partir de su voz y material de archivo. La forma de la boca del expresidente estadounidense fue modelada para crear un "Obama sintético". En la Universidad de Stanford, los investigadores han manipulado la rotación de la cabeza, la mirada y el parpadeo de los ojos, produciendo videos generados por computadora que son difíciles de distinguir de la realidad.

La tecnología podría hacer maravillas para la edición y producción de películas y para la realidad virtual. En un futuro no muy lejano, el doblaje podría transformarse: los actores mexicanos en una telenovela hablarán inglés (o chino o ruso) y tendrán un aspecto más auténtico. En el ámbito de los negocios y los asuntos mundiales, la tecnología podría romper la barrera del idioma en las llamadas de videoconferencia traduciendo lo que se está diciendo y al mismo tiempo alterando los movimientos faciales y bucales para que parezca que todos están hablando el mismo idioma.

Pero también hay que considerar los posibles abusos, por individuos o agentes estatales empeñados en difundir información errónea. La tecnología "deepfake" podría poner palabras y expresiones en la cara y la boca de un político e influir en unas elecciones. Los videos podrían fabricar una amenaza y provocar una crisis política o un incidente de seguridad. "Si nos basamos en los últimos años, los videos falsos se desplegarán cada vez más para avanzar las agendas políticas", dice Yasmin Green, directora de investigación y desarrollo de Jigsaw, el grupo de expertos de Alphabet. "En el pasado, los esfuerzos de este tipo no eran técnicamente sofisticados y, por lo tanto, se podían desacreditar fácilmente, pero la tecnología se está desarrollando más rápidamente que nuestra comprensión de la amenaza que plantea".

Ya hemos visto evidencia del problema. En mayo del año pasado, la agencia de noticias de Qatar y sus cuentas de redes sociales fueron pirateadas y se le atribuyeron declaraciones al emir que desencadenaron una disputa diplomática. Los vecinos de Qatar usaron los comentarios para justificar un boicot económico del emirato. "El episodio de Qatar mostró la intención de usar las falsificaciones para seguir agendas políticas", dice la Sra. Green. "Imagínense si tuvieran las capacidades para crear imitaciones "deepfake'".

Recientemente, antes de las elecciones locales en Moldavia, se publicó un video de un segmento de noticias de Al Jazeera en la página de Facebook de la red con subtítulos en rumano. Afirmaba que se trataba de la propuesta de un candidato a la alcaldía de alquilar una isla a los Emiratos Árabes Unidos. Fue una fabricación, pero el video se volvió viral.

El daño de las actuales noticias falsas palidece en comparación con el daño que podría provenir de las falsificaciones "deepfake". A Aviv Ovadya, tecnólogo jefe del Centro para la Responsabilidad de las Redes Sociales de la Universidad de Michigan, le preocupa que los profundos fraudes no sólo convencerán a la gente de cosas que no son reales, sino que también socavarán la confianza de las personas con respecto a lo que realmente es cierto. "Esto impactará todo en nuestra sociedad, desde el Estado de derecho hasta cómo se realiza el periodismo", dice.

También lee: