.

Un 'deepfake' de la cara de Nicolas Cage sobre la de Donald Trump

Computación

Un simple análisis de los ojos descubre los vídeos falsos 'deepfake'

1

Las falsificaciones automáticas de vídeo creadas mediante IA no suelen pestañear, un fenómeno que las hace más fáciles de identificar para luchar contra casos de porno vengativo y bulos. Este puede ser el comienzo de una carrera armamentista entre detectives y falsificadores digitales

  • por Will Knight | traducido por Mariana Díaz
  • 09 Agosto, 2018

El mundo ya dispone de las primeras herramientas para perseguir los casos de porno vengativo y bulos creados con inteligencia artificial (IA). Y todo gracias a un programa administrado por el Departamento de Defensa de Estados Unidos.

Más allá de los maravillosos usos del aprendizaje automático, hay quien se ha dedicado a usar la tecnología para crear vídeos falsos increíblemente realistas de forma automática que podrían utilizarse para sembrar la desinformación o acosar a las personas. Por suerte, a los expertos no les ha costado demasiado encontrar estrategias para detectarlos.

Los clips manipulados, conocidos como "deepfakes" (o falsificaciones automáticas), son fáciles de hacer y pueden ser sorprendentemente realistas. Y si un editor de vídeo participa en el proceso, puede hacer parezcan aún más reales.

Para conseguir estas falsificaciones se utiliza una técnica de aprendizaje automático conocida como redes generativas antagónicas (o GAN, una de nuestras 10 Tecnologías Emergentes de 2018). Gracias ella, un ordenador utiliza datos reales antes para aprender a producir versiones falsas estadísticamente similares (ver El señor de las GAN: el hombre que dio imaginación a las máquinas).

Las herramientas para capturar deepfakes se desarrollaron a través de Media Forensics, un programa de la Agencia de Proyectos de Investigación Avanzados de la Defensa de EE. UU. (DARPA), creado para automatizar las herramientas forenses existentes. En los últimos años, la iniciativa no ha podido evitar sumarse a la tendencia de las falsificaciones creadas mediante IA.

El director del programa Media Forensics, Matthew Turek, explica: "Hemos descubierto pistas sutiles en las imágenes y vídeos actuales manipulados por las GAN que nos permiten detectar la presencia de alteraciones".


Tucker Carlson tiene su propio maquillaje de Nicolas Cage.

Foto: El comentarista político Tucker Carlson tiene su propio 'deepfake' que le convierte en el actor Nicolas Cage. Crédito: Universidad en Albany.

La técnica de detección, que resulta increíblemente simple, ha sido desarrollada por un equipo dirigido por el profesor de la Universidad de Albany de la Universidad Estatal de Nueva York (SUNY en EE. UU.) Siwei Lyu y uno de sus estudiantes. El responsable afirma: "Generamos unos 50 vídeos falsos y probamos varios métodos tradicionales, pero ninguno funcionó del todo bien".

Entonces, una tarde, mientras estudiaba varias falsificaciones automáticas, Lyu se dio cuenta de que las caras creadas mediante deepfakes nunca o casi nunca parpadeaban. Y cuando lo hacen, el movimiento no resulta natural. Esto se debe a que los deepfakes se entrenan en imágenes fijas, que tienden a mostrar a una persona con los ojos abiertos.

Vídeo: Un 'deepfake' de la cara de Nicolas Cage sobre la de Donald Trump. Los ojos, que no parpadean, delatan el engaño.

Otras personas involucradas en el desafío DARPA están explorando trucos similares para atrapar automáticamente las falsificaciones automáticas: movimientos extraños de cabeza, color de ojos extraño, etcétera. El experto en análisis forense digital de la Universidad de Dartmouth (EE. UU.) Hany Farid, detalla: "Estamos explorando este tipo de señales fisiológicas que, al menos por ahora, son difíciles de imitar para las falsificaciones automáticas". Por su parte, Turek afirma que la agencia realizará más concursos "para garantizar que las tecnologías en desarrollo puedan detectar las últimas técnicas".

La llegada de estas herramientas puede indicar el comienzo de una carrera armamentista impulsada por la IA entre los falsificadores de vídeo y los detectives digitales. Farid señala que un problema clave es que los sistemas de aprendizaje automático pueden aprender a superar las herramientas forenses.

Lyu explica que un falsificador hábil podría vencer a su herramienta de parpadeo con solo recoger imágenes que muestran a una persona parpadeando. Pero agrega que su equipo ha desarrollado una técnica aún más efectiva que, de momento, prefiere mantener en secreto. El investigador concluye: "Preferiría esperar un poco. Ahora tenemos una pequeña ventaja sobre los falsificadores y queremos mantenerla".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. La 'start-up' de EE UU que se enfrenta al gigante japonés de materiales para chips

    La financiación federal está impulsando a empresas estadounidenses como Thintronics a incursionar en la fabricación de semiconductores. El éxito está lejos de estar garantizado.

    Placas de circuitos electrónicos apiladas en una cadena de montaje.
  2. ASML, la empresa que revolucionó la fabricación de chips y quiere seguir haciéndolo

    ‘MIT Technology Review’ se reunió con el CTO saliente, Martin van den Brink, para hablar del ascenso de la empresa a la hegemonía y de la vida y muerte de la Ley de Moore  

    Dos trabajadores de ASML pasan por delante de la máquina UVE de alta apertura numérica en Veldhoven
  3. ‘Chiplets’: el arma de China en su batalla tecnológica contra EE UU

    Al conectar varios chips menos avanzados en uno, las empresas chinas podrían eludir las sanciones impuestas por el gobierno estadounidense.