.

Pedro Nekoi

Inteligencia Artificial

La horrible 'app' de 'deepfakes' que coloca a mujeres en videos porno

1

Se trata de algo sobre lo que los expertos llevan tiempo advirtiendo y eleva este tipo de abusos al siguiente nivel. Las consecuencias psicológicas y sociales de esta especie de violación pueden alargarse durante años y también afectan a los hombres en países donde se castiga la homosexualidad 

  • por Karen Hao | traducido por Ana Milutinovic
  • 16 Septiembre, 2021

El sitio web en cuestión llama la atención por su sencillez. Sobre un fondo blanco, un enorme botón azul invita a los usuarios a subir una foto de un rostro. Debajo del botón, cuatro caras generadas por inteligencia artificial (IA) permiten probar el servicio. Sobre el botón, el lema describe audazmente el propósito: convertir a cualquiera en una estrella porno usando la tecnología deepfake para sustituir la cara de la persona en un vídeo para adultos. Solo hace falta subir la imagen y presionar ese botón.

MIT Technology Review ha decidido no nombrar el servicio en cuestión, al que nos referiremos como Y. Tampoco utilizaremos citas directas ni capturas de pantalla de su contenido, para evitar atraer tráfico a ese sitio. Fue descubierto por el investigador de deepfake Henry Ajder, quien ha estado siguiendo la evolución y el auge de las ultrafalsificaciones online y fue él quien nos lo ha presentado.

Por ahora, Y existe en una relativa oscuridad, con una pequeña base de usuarios que comentan activamente sobre el desarrollo creativo en foros online. Pero los investigadores ya temían que surgiera una app como esta, rompiendo la línea ética que ningún otro servicio ha cruzado antes.

Desde el principio, los deepfakes, o contenidos sintéticos generados por IA, se han utilizado principalmente para crear representaciones pornográficas de mujeres, que a menudo sienten como algo psicológicamente devastador. El creador original de Reddit que popularizó la tecnología cambiaba las caras de las mujeres famosas en los vídeos porno. Hasta el día de la publicación de este artículo, la empresa de investigación Sensity AI ha estimado que entre el 90 % y el 95 % de todos los vídeos deepfake online son pornografía sin consentimiento, y en alrededor del 90 % de esos vídeos las protagonistas son mujeres.

Mientras la tecnología avanzaba, han ido surgiendo numerosas herramientas sin código fáciles de usar, que permitían a los usuarios "quitar" la ropa de los cuerpos femeninos en las imágenes. Desde entonces, muchos de estos servicios han sido forzados a salir de internet, pero el código todavía existe en los repositorios de código abierto y ha seguido resurgiendo en nuevas formas. El último sitio de este tipo recibió más de 6,7 millones de visitas en agosto, según la investigadora Genevieve Oh, quien lo descubrió. Aún no se ha eliminado de la web.

Ha habido otras apps de intercambio de caras con una sola foto, como ZAO y ReFace, que colocan a los usuarios en escenas elegidas de distintas películas o vídeos populares. Pero, como primera app pornográfica dedicada al intercambio de rostros, Y lleva el tema a un nuevo nivel. Está "hecho a medida" para crear imágenes pornográficas de personas sin su consentimiento, asegura el fundador de la organización sin ánimo de lucro EndTAB, Adam Dodge, que educa a las personas sobre los posibles abusos que permite esta tecnología. Esto hace que sea más fácil para los creadores mejorar los deepfakes para este uso específico y atrae a personas que de otra manera no hubieran pensado en crear pornografía deepfake. "Cada vez que hay algo tan especializado, se crea un nuevo rincón de internet que atraerá a nuevos usuarios", explica Dodge.

Y es increíblemente fácil de usar. Cuando el usuario sube la foto de una cara, el sitio abre una biblioteca de vídeos porno. La gran mayoría es de mujeres, aunque un pequeño número también es de hombres, principalmente de porno gay. Luego, el usuario puede seleccionar cualquier vídeo para generar en segundos una vista previa del resultado del intercambio de caras y pagar para descargar la versión completa.

Los resultados están lejos de ser perfectos. Muchos de los intercambios de rostros son obviamente falsos, con caras centelleando y distorsionadas cuando giran en diferentes ángulos. Pero para un observador cualquiera, algunos son lo suficientemente sutiles como para pasar por reales, y la trayectoria de los deepfakes ya ha demostrado lo rápido que pueden volverse indistinguibles de la realidad.

Algunos expertos argumentan que la calidad del deepfake tampoco importa porque el costo psicológico de las víctimas puede ser el mismo de cualquier manera. Y muchas personas desconocen que existe tal tecnología, por lo que incluso los intercambios de rostros de baja calidad pueden engañar a la gente.

"Hasta el día de hoy, nunca he tenido éxito en eliminar ninguna de las imágenes. Eso estará ahí fuera para siempre. Independientemente de lo que yo haga", Noelle Martin, activista.

Y se autodefine como herramienta segura y responsable para explorar las fantasías sexuales. El lenguaje del sitio anima a los usuarios a subir su propia cara. Pero nada les impide subir las imágenes de otras personas, y los comentarios en los foros online sugieren que los usuarios ya han estado haciendo exactamente eso.

Las consecuencias para las mujeres y chicas afectadas por esta actividad pueden ser devastadoras. A nivel psicológico, estos vídeos pueden parecer tan violadores como el porno por venganza (vídeos íntimos reales grabados o publicados sin consentimiento). "Este tipo de abuso, donde la gente tergiversa la identidad, el nombre, la reputación de alguien y lo altera de formas tan violentas, destroza a la víctima hasta la médula", afirma la activista australiana Noelle Martin, que ha sido blanco de una campaña de pornografía deepfake.

Las secuelas pueden quedarse de por vida con las víctimas. Las imágenes y los vídeos son difíciles de eliminar de internet y el material nuevo se puede crear en cualquier momento. Martin señala: "Afecta las relaciones interpersonales de la víctima; influye a la hora de conseguir trabajo. En cada entrevista de trabajo a la que vaya, esto podría surgir. En las posibles relaciones sentimentales. Hasta el día de hoy, nunca he tenido éxito en eliminar ninguna de las imágenes. Eso estará ahí fuera para siempre. Independientemente de lo que yo haga".

A veces es incluso más complicado que el porno de venganza. Como el contenido no es real, las mujeres pueden dudar de si deberían sentirse traumatizadas y si deberían denunciarlo, resalta Dodge. "Si alguien está luchando con decidir si realmente es una víctima, eso afecta su capacidad de recuperación", añade.

La pornografía deepfake sin consentimiento también puede tener impactos económicos y profesionales. La periodista india Rana Ayyub fue víctima de una campaña de pornografía deepfake tras lo que recibió un acoso online tan intenso que tuvo que minimizar su presencia online y, también, su perfil público requerido para poder hacer su trabajo. La poeta y locutora de Reino Unido que compartió su historia con MIT Technology Review Helen Mort admitió que sentía la presión de hacer lo mismo después de descubrir que le habían robado fotos de cuentas privadas de redes sociales para crear desnudos falsos.

La línea de ayuda Revenge Porn, financiada por el Gobierno de Reino Unido, ha tenido recientemente un caso de una maestra que perdió su trabajo después de que se difundieran imágenes pornográficas falsas de ella en las redes sociales, que llamaron la atención de su escuela, señaló la administradora del servicio Sophie Mortimer. "Está empeorando, no mejorando. Cada vez más mujeres están siendo atacadas de esta manera", advierte Dodge.

La opción de Y de crear porno gay deepfake, aunque limitada, representa una amenaza adicional para los hombres en los países donde la homosexualidad está penalizada, resalta Ajder. Este es el caso en 71 jurisdicciones a nivel mundial, 11 de las cuales castigan este delito con la muerte.

Ajder, que ha descubierto numerosas apps de pornografía deepfake en los últimos años, asegura que ha intentado ponerse en contacto con el servicio de alojamiento de Y para obligarlo a eliminarlo. Pero no tiene muchas esperanzas sobre la posibilidad de evitar que se creen herramientas similares. Ya ha surgido otro sitio que parece estar intentando lo mismo.

En su opinión, prohibir dicho contenido en las plataformas de redes sociales, y tal vez incluso hacer que su creación o uso sea ilegal, sería una solución más sostenible. "Eso significa que estos sitios web se tratarían de la misma manera que el material de la web oscura. Incluso si se lleva a la clandestinidad, al menos lo quita de los ojos de la gente común", señala.

Y no respondió a múltiples solicitudes de comentarios enviadas al correo electrónico de prensa que figura en su sitio web. La información de registro asociada con el dominio también está bloqueada por el servicio de privacidad Withheld for Privacy. El 17 de agosto, después de que MIT Technology Review hiciera un tercer intento de comunicarse con el creador, el sitio web colocó un aviso en su página de inicio informando que ya no estaba disponible para nuevos usuarios. El 12 de septiembre, el aviso todavía estaba allí.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Cómo hackear una GAN para destapar las identidades de su entrenamiento

    Dos técnicas diferentes permiten acceder a los datos originales, como las caras, que se usan para entrenar redes generativas antagónicas capaces de crear imágenes ultrarrealistas, pero falsas, conocidas como 'deepfakes'. Ambas investigaciones son una alerta más de los riesgos de privacidad de este tipo de inteligencia artificial

  2. Astro, el robot de Amazon diseñado para colarse en casa y enamorarnos

    Todos sus detalles están pensados para ganarse nuestra confianza, desde su imagen de ojos grandes y tamaño pequeño hasta sus limitadas funciones. Pero, ¿qué pasará cuando los más pequeños lo confundan con un ser vivo o empiecen a recibir publicidad de su nuevo amigo? 

  3. Vuelos y emergencias: por qué importa la buena IA predictiva de lluvia

    DeepMind ha anunciado una herramienta de aprendizaje profundo capaz de notificar la probabilidad de precipitaciones en los siguientes 90 minutos. A las actividades al aire libre o los aeropuertos les interesan este tipo de tecnologías ante uno de los grandes retos meteorológicos