Según un informe publicado el miércoles por el Tech Transparency Project, Apple y Google han seguido ofreciendo apps que permiten a los usuarios crear imágenes sexualizadas de personas sin su consentimiento, a pesar de sus políticas que prohíben este tipo de contenido.
Según el grupo, una rama de investigación de la organización sin fines de lucro Campaign for Accountability, buscar términos como “desnudarse” y “desvestir” fotos en las tiendas de apps de Apple y Google permite a los usuarios acceder a software que puede utilizarse para alterar imágenes de celebridades y otras personas, haciéndolas parecer desnudas o semidesnudas. Estas empresas también muestran anuncios de aplicaciones similares para “desnudar” en sus resultados de búsqueda.
Según el informe, que cita estimaciones de ingresos de la empresa de investigación de mercado AppMagic, las aplicaciones identificadas por el grupo se han descargado 483 millones de veces y han generado 122 millones de dólares en ingresos. Un portavoz de AppMagic afirmó que el trabajo del Tech Transparency Project ha dado como resultado la eliminación de varias aplicaciones y ha impulsado a otras a modificar sus políticas de usuario.
Durante el último año, políticos de todo el mundo han intensificado sus llamados para frenar la proliferación de aplicaciones que promueven la desnudez. A principios de este año, las empresas eliminaron las aplicaciones señaladas por el Tech Transparency Project. Sin embargo, pocos meses después, se detectaron docenas de aplicaciones similares, según informaron investigadores de la organización.
“No se trata solo de que las empresas no revisen adecuadamente estas aplicaciones y sigan aprobándolas y obteniendo beneficios de ellas”, declaró Katie Paul, directora del proyecto, en una entrevista. “De hecho, están dirigiendo a los usuarios directamente a las aplicaciones”.
Tras realizar búsquedas en las tiendas de aplicaciones, el grupo identificó 18 apps con contenido desnudez en la App Store de Apple y 20 en Google Play Store. Además, según los investigadores, tanto Apple como Google a veces dirigían a los usuarios a estas apps mediante su función de autocompletar, sugiriendo nombres de más apps con contenido desnudez mientras los usuarios escribían.
Algunas de las aplicaciones utilizaban nombres e imágenes que las presentaban con connotaciones sexuales. Otras podían usarse fácilmente con ese fin, a pesar de no estar comercializadas como tales, lo que las hacía más convenientes que los programas de edición de fotos tradicionales. Algunas ofrecían suscripciones, según el Tech Transparency Project.
Las directrices de la App Store de Apple para desarrolladores prohíben el “material abiertamente sexual o pornográfico”. La Google Play Store prohíbe las “aplicaciones que degradan u cosifican a las personas, como las aplicaciones que afirman desnudar a las personas o ver a través de la ropa, incluso si están etiquetadas como aplicaciones de broma o entretenimiento”.
Google ha declarado que muchas de las aplicaciones mencionadas en el informe han sido suspendidas de Google Play por infringir sus políticas, y que la investigación sigue en curso.
“Cuando se nos informan de infracciones a nuestras políticas, investigamos y tomamos las medidas oportunas”, dijo la empresa en un correo electrónico.
Apple anunció que eliminó 15 aplicaciones identificadas por el grupo tras ser contactada por Bloomberg para consultar sobre su presencia. Entre las aplicaciones retiradas se encontraba PicsVid AI Hot Video Generator, que ofrecía plantillas con imágenes de mujeres chupando piruletas fálicas, según los investigadores. El desarrollador de PicsVid no respondió a la solicitud de comentarios.
Otra aplicación identificada por el Tech Transparency Project, Uncensored AI — No Filter Chat, eliminó la ropa de una imagen de una mujer subida por los investigadores. Un representante del desarrollador de Uncensored AI afirmó que la aplicación ya no permite quitar la ropa.
Apple declaró que contactó a los desarrolladores de seis aplicaciones para alertarlos sobre problemas que debían solucionarse y que corrían el riesgo de ser eliminadas. Según Apple, otras aplicaciones mencionadas por el Tech Transparency Project no infringían las directrices de la compañía. La empresa añadió que ha rechazado proactivamente muchas aplicaciones y ha eliminado otras.
Según Anne Helmond, profesora de la Universidad de Utrecht en los Países Bajos, los esfuerzos de los gigantes tecnológicos para hacer cumplir la ley son “desiguales y en gran medida opacos”.
«Si una aplicación se presenta como un generador de imágenes genérico, puede superar la revisión, incluso si se presta a un uso indebido», afirmó Helmond, director de la App Studies Initiative, un grupo de investigación internacional. «La visibilidad está determinada por los sistemas de clasificación y búsqueda que premian la interacción, lo que significa que los usos controvertidos pueden aumentar la popularidad de una aplicación».
Una de las aplicaciones identificadas por los investigadores en Google Play Store, Video Face Swap AI: DeepFace, anunciaba la posibilidad de intercambiar el rostro de la actriz Anya Taylor-Joy con el de Daenerys Targaryen, personaje de Juego de Tronos . Sin embargo, dentro de la aplicación, en una categoría llamada Chicas, los usuarios podían pegar rostros de personas en plantillas de vídeo de mujeres moviendo los pechos o las caderas, según descubrió Bloomberg. La aplicación, clasificada como “E” (para todos los públicos), se ha descargado más de un millón de veces desde la tienda, donde los usuarios podían encontrarla escribiendo “intercambio de rostros” en la barra de búsqueda.
Okapi Software, la empresa que ofrece la aplicación de IA para el intercambio de rostros en vídeo, declaró haber iniciado una investigación sobre los problemas planteados por Bloomberg y haber eliminado parte del contenido, que según la empresa había sido subido por los usuarios.
“Nuestra aplicación no ofrece la función de ‘desnudez’ y no permitimos la generación de contenido desnudo o sexualmente explícito”, dijo Okapi. “Nos tomamos muy en serio la seguridad del contenido y el cumplimiento de las normas”.
Un número creciente de reguladores exige a las empresas que hagan más por cumplir con sus políticas. El año pasado, el presidente Donald Trump firmó la Ley de Retirada de Contenido Sexual, que penaliza la publicación de contenido sexual no consentido y obliga a las redes sociales y sitios web a eliminar dichas publicaciones. En abril, el gobierno del Reino Unido planea presentar una legislación que permitiría procesar a los ejecutivos de empresas tecnológicas cuyas compañías no retiren dichas imágenes.







