.

Universidad de California en Berkeley

Computación

Esta IA protege a famosos y políticos de sus 'deepfakes'

1

El sistema analiza la huella biométrica suave de cada persona, como la forma de sonreír tras una pregunta, para identificar si el vídeo en el que aparece es real o una falsificación. Para evitar que los falsificadores aprendan a superarlo, sus creadores no han hecho público el sistema, de momento

  • por Will Knight | traducido por Ana Milutinovic
  • 28 Junio, 2019

Un vídeo creado por inteligencia artificial (IA) podría hacer que cualquiera aparezca diciendo o haciendo algo extremadamente escandaloso e incendiario. Y dado que, gracias a la tecnología, el vídeo sería increíblemente realista, en el peor de los casos, podría llegar a influir en unas elecciones, desencadenar disturbios o incluso provocar un conflicto armado internacional.

Afortunadamente, una nueva técnica forense digital promete proteger los líderes mundiales y a las celebridades contra ese tipo de deepfakes, al menos por ahora. El nuevo método utiliza el aprendizaje automático para analizar la forma de hablar y los movimientos de una persona específica, lo que los investigadores llaman "firma biométrica débil".

El equipo, formado por investigadores de la Universidad de California en Berkeley y de la Universidad del Sur de California (ambas en EE. UU.), utilizó una herramienta existente para extraer los movimientos de la cara y de la cabeza de algunas personas. Después, crearon sus propios deepfakes para Donald Trump, Barack Obama, Bernie Sanders, Elizabeth Warren y Hillary Clinton utilizando redes generativas antagónicas (GAN, por sus siglas en inglés).

Luego, el equipo utilizó el aprendizaje automático para distinguir los movimientos de la cabeza y de la cara típicos de cada persona real. Estas señales sutiles, como por ejemplo la forma en la que Bernie Sanders asiente con la cabeza mientras pronuncia alguna palabra concreta, o la forma en la que Trump sonríe después de una reaparición, actualmente no están modeladas por los algoritmos de deepfake.

En los experimentos, la técnica alcanzó una precisión de al menos 92 % para detectar distintas variaciones de deepfakes, incluidos los intercambios de caras. También podrá analizar los objetos en los archivos que provienen de la compresión de vídeos, que puede confundir a otras técnicas de detección. Los investigadores planean mejorar esta técnica mediante el análisis las características de la forma de hablar de cada persona. El estudio, que se presentó recientemente en una conferencia de visión artificial, fue financiado por Google y DARPA, el ala del Pentágono dedicado a la investigación. DARPA está financiando un programa para diseñar mejores técnicas de detección.

El problema al que se enfrentan los líderes mundiales (y todos nosotros) es que generar vídeos falsos con inteligencia artificial se ha vuelto ridículamente sencillo. Las noticias falsas, las cuentas de las redes sociales falsas y los vídeos falsos ya forman parte de la agenda informativa y política. A los políticos les preocupa especialmente que los medios de comunicación falsos se puedan utilizar para sembrar la desinformación durante las elecciones presidenciales de 2020.

Ya se habían creado algunas herramientas para identificar vídeos deepfake, pero los falsificadores se adaptan a ellas rápidamente. Por ejemplo, durante un tiempo fue posible detectar un deepfake solo con mirar a los ojos del protagonista, que tendían a ser poco naturales puesto que no parpadeaban. Poco después de que se identificara este método, los algoritmos de deepfake se modificaron para incluir un mejor parpadeo.

El profesor de la Universidad del Sur de California Hao Li, quien ayudó a desarrollar esta nueva técnica, afirma: "Estamos viviendo una carrera armamentística entre las manipulaciones digitales y la capacidad de detectarlas, y los avances en de la IA catalizan ambos bandos". Por esta razón, su equipo aún no ha publicado el código de su técnica.

Asegura que a los creadores de deepfakes les costará bastante engañar a su técnica, pero admite que probablemente lo acabarán logrando. "El siguiente paso para ir desarrollando esta forma de detección sería sintetizar los movimientos y comportamientos basados en observaciones anteriores de una persona en concreto", afirma.

Li también destaca que a medida que los deepfake se vuelven más fáciles de usar y más poderosos, es posible que todos empecemos a plantearnos que necesitamos un seguro anti-deepfakes. El investigador concluye: "Las celebridades y las figuras políticas han sido los principales objetivos hasta ahora. Pero no me sorprendería que dentro de un año dos, los usuarios artificiales indistinguibles de los reales acaben siendo sintetizados por cualquiera".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. La pelea mundial por acceder al espectro de radiofrecuencia espacial

    Cada vez más empresas y países quieren lanzar satélites a la órbita baja terrestre, pero la franja disponible para operarlos y comunicarse con ellos es finita, lo que está generando una batalla competitiva y regulatoria en la que los más poderosos podrían resultar favorecidos (como siempre)

  2. Por qué el primer juego de cartas basado en 'blockchain' ya es un éxito

    Además de sus ventas anticipadas por valor de 3,5 millones de euros, 'Gods Unchained' ofrece un vistazo a cómo podría ser el futuro de la propiedad privada. Las cartas coleccionables y sus dueños quedarán registrados en la cadena de bloques Ethereum

  3. La vida podría existir en un universo 2D, según la física

    Los físicos han afirmado tradicionalmente que la vida solo podría formarse en un universo con tres dimensiones de espacio y una de tiempo. Ahora, un investigador ha demostrado que un universo de 2+1 dimensiones podría soportar tanto la gravedad como la complejidad que requiere la vida