Espectáculos

Deepfake alcanza a Taylor Swift y hasta la Casa Blanca se indigna; ¿qué dijo el gobierno de Biden?

Hay un ‘boom’ en la creación de imágenes sexuales falsas hechas con IA, algo que ha afectado a estrellas como Taylor Swift y en general a las mujeres.

La Casa Blanca dijo que las imágenes sexualmente explícitas hechas con inteligencia artificial de la estrella pop Taylor Swift eran preocupantes y que el Congreso debería considerar legislación para abordar las imágenes falsas y abusivas que proliferan en línea.

Las redes sociales también deben hacer más para impedir la difusión de las imágenes, afirmó el viernes la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre.

“Es alarmante”, dijo Jean-Pierre a los periodistas. “Entonces, si bien las empresas de redes sociales toman sus propias decisiones independientes sobre la gestión de contenidos, creemos que tienen un papel importante que desempeñar en el cumplimiento de sus propias reglas para evitar la difusión de información errónea e imágenes íntimas no consensuadas”.

Imágenes sexualmente explícitas falsas de Swift han inundado X, la plataforma de redes sociales antes conocida como Twitter, en las últimas semanas, acumulando millones de visitas y decenas de miles de reenvíos. En otros casos, las imágenes de Swift y otras celebridades han sido manipuladas para que parezca que respaldan productos comerciales.

X ha dicho que eliminará las imágenes y tomará medidas contra las cuentas involucradas en su difusión. Este sábado 27 de enero, no es posible realizar la búsqueda con el nombre de Taylor Swift en X.

Pero la controversia ha inspirado llamados bipartidistas de miembros del Congreso de Estados Unidos para obtener nuevas salvaguardias.


Jean-Pierre dijo que, aparte de eso, el presidente Joe Biden estaba trabajando con empresas de inteligencia artificial en esfuerzos unilaterales que pondrían marcas de agua en las imágenes generadas para que fueran más fáciles de identificar como falsas. La administración Biden también ha designado un grupo de trabajo para abordar el acoso y el abuso en línea, mientras que el Departamento de Justicia creó una línea directa para las víctimas de abuso sexual basado en imágenes.

El episodio en el que se ha visto envuelta Swift ha provocado la furia de sus fans y otras personas en X, lo que causó que la frase “Protect Taylor Swift (Protección para Taylor Swift)” se convirtiera en tendencia en la plataforma social. No es la primera vez que la cantante se ve sometida a que su imagen sea utilizada en manipulación de IA, aunque es la primera con este nivel de indignación pública.

Los 10 principales sitios web deepfake albergaban alrededor de mil videos que hacían referencia a “Taylor Swift” a finales de 2023, según una revisión de Bloomberg. Los usuarios de Internet insertan el rostro de la cantante en el cuerpo de artistas porno u ofrecen a los clientes que pagan la posibilidad de “desnudar” a las víctimas utilizando tecnología de inteligencia artificial.

Los sitios web que usan inteligencia artificial para desnudar fotografías de mujeres han aumentado su popularidad en los últimos meses.

Tan solo en septiembre de 2023, 24 millones de personas visitaron sitios web que tienen la herramienta para desnudar, de acuerdo con datos de Graphika.

Estas aplicaciones son parte de una tendencia preocupante de imágenes sexuales no consentidas, conocidas como deepfake porn o pornografía deepfake.

También lee: