.

Un 'deepfake' de la cara de Nicolas Cage sobre la de Donald Trump

Computación

Un simple análisis de los ojos descubre los vídeos falsos 'deepfake'

1

Las falsificaciones automáticas de vídeo creadas mediante IA no suelen pestañear, un fenómeno que las hace más fáciles de identificar para luchar contra casos de porno vengativo y bulos. Este puede ser el comienzo de una carrera armamentista entre detectives y falsificadores digitales

  • por Will Knight | traducido por Mariana Díaz
  • 09 Agosto, 2018

El mundo ya dispone de las primeras herramientas para perseguir los casos de porno vengativo y bulos creados con inteligencia artificial (IA). Y todo gracias a un programa administrado por el Departamento de Defensa de Estados Unidos.

Más allá de los maravillosos usos del aprendizaje automático, hay quien se ha dedicado a usar la tecnología para crear vídeos falsos increíblemente realistas de forma automática que podrían utilizarse para sembrar la desinformación o acosar a las personas. Por suerte, a los expertos no les ha costado demasiado encontrar estrategias para detectarlos.

Los clips manipulados, conocidos como "deepfakes" (o falsificaciones automáticas), son fáciles de hacer y pueden ser sorprendentemente realistas. Y si un editor de vídeo participa en el proceso, puede hacer parezcan aún más reales.

Para conseguir estas falsificaciones se utiliza una técnica de aprendizaje automático conocida como redes generativas antagónicas (o GAN, una de nuestras 10 Tecnologías Emergentes de 2018). Gracias ella, un ordenador utiliza datos reales antes para aprender a producir versiones falsas estadísticamente similares (ver El señor de las GAN: el hombre que dio imaginación a las máquinas).

Las herramientas para capturar deepfakes se desarrollaron a través de Media Forensics, un programa de la Agencia de Proyectos de Investigación Avanzados de la Defensa de EE. UU. (DARPA), creado para automatizar las herramientas forenses existentes. En los últimos años, la iniciativa no ha podido evitar sumarse a la tendencia de las falsificaciones creadas mediante IA.

El director del programa Media Forensics, Matthew Turek, explica: "Hemos descubierto pistas sutiles en las imágenes y vídeos actuales manipulados por las GAN que nos permiten detectar la presencia de alteraciones".


Tucker Carlson tiene su propio maquillaje de Nicolas Cage.

Foto: El comentarista político Tucker Carlson tiene su propio 'deepfake' que le convierte en el actor Nicolas Cage. Crédito: Universidad en Albany.

La técnica de detección, que resulta increíblemente simple, ha sido desarrollada por un equipo dirigido por el profesor de la Universidad de Albany de la Universidad Estatal de Nueva York (SUNY en EE. UU.) Siwei Lyu y uno de sus estudiantes. El responsable afirma: "Generamos unos 50 vídeos falsos y probamos varios métodos tradicionales, pero ninguno funcionó del todo bien".

Entonces, una tarde, mientras estudiaba varias falsificaciones automáticas, Lyu se dio cuenta de que las caras creadas mediante deepfakes nunca o casi nunca parpadeaban. Y cuando lo hacen, el movimiento no resulta natural. Esto se debe a que los deepfakes se entrenan en imágenes fijas, que tienden a mostrar a una persona con los ojos abiertos.

Vídeo: Un 'deepfake' de la cara de Nicolas Cage sobre la de Donald Trump. Los ojos, que no parpadean, delatan el engaño.

Otras personas involucradas en el desafío DARPA están explorando trucos similares para atrapar automáticamente las falsificaciones automáticas: movimientos extraños de cabeza, color de ojos extraño, etcétera. El experto en análisis forense digital de la Universidad de Dartmouth (EE. UU.) Hany Farid, detalla: "Estamos explorando este tipo de señales fisiológicas que, al menos por ahora, son difíciles de imitar para las falsificaciones automáticas". Por su parte, Turek afirma que la agencia realizará más concursos "para garantizar que las tecnologías en desarrollo puedan detectar las últimas técnicas".

La llegada de estas herramientas puede indicar el comienzo de una carrera armamentista impulsada por la IA entre los falsificadores de vídeo y los detectives digitales. Farid señala que un problema clave es que los sistemas de aprendizaje automático pueden aprender a superar las herramientas forenses.

Lyu explica que un falsificador hábil podría vencer a su herramienta de parpadeo con solo recoger imágenes que muestran a una persona parpadeando. Pero agrega que su equipo ha desarrollado una técnica aún más efectiva que, de momento, prefiere mantener en secreto. El investigador concluye: "Preferiría esperar un poco. Ahora tenemos una pequeña ventaja sobre los falsificadores y queremos mantenerla".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. El SETI solo ha buscado vida inteligente en una región ínfima del universo

    Tras años de búsqueda, la falta de señales alienígenas sugiere que los únicos seres inteligentes del cosmos están en la Tierra. Pero esta investigación revela que el área analizada hasta la fecha equivale al volumen de agua de una bañera frente al de todos los océanos

  2. Este sistema es más preciso que el GPS y resiste desastres espaciales

    Una colisión en cadena en la órbita terrestre podría destruir la tecnología con la que la humanidad se orienta en el siglo XXI. Para evitar un apagón en caso de fallo, un equipo ha descubierto un sencillo enfoque que solo requiere drones o globlos equipados con un reloj 

  3. El mundo empieza a abrir los ojos ante el peligro de un IoT poco seguro

    Ya hemos visto casos de hackers que se hacen con el control de juguetes, cámaras e incluso coches conectados a internet. El riesgo es tan alto que California ha lanzado un tímido proyecto de ley para aumentar las obligaciones de los fabricantes, pero el texto deja en el aire algunos puntos clave