.

La tecnología actual permite que cualquiera haga vídeos falsos de otras personas, como políticos y personajes famosos. Esto complica aun más el futuro de las noticias falsas

Inteligencia Artificial

La IA es la única opción contra las noticias falsas que ella misma crea

1

El Gobierno de EE. UU. está financiando una iniciativa para entrenar a sistemas de inteligencia artificial para que aprendan a detectar de forma automática audios, imágenes y vídeos falsos creados por otas máquinas. Pero sus propios responsables admiten que podría ser una batalla perdida.

  • por Will Knight | traducido por Mariana Díaz
  • 29 Mayo, 2018

¿Cree que la inteligencia artificial (IA) pondrá freno a las noticias falsas? El ejército de Estados Unidos no está tan seguro.

El Departamento de Defensa de EE. UU. está financiando un proyecto para determinar si los vídeos y audio falsos, que cada vez son más reales, generados por sistemas de inteligencia artificial (IA) llegarán a ser imposibles de distinguir de los reales, incluso para otro sistema de IA.

La iniciativa, financiada por la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA, por sus siglas en inglés), reunirá este verano a los mejores expertos forenses digitales del mundo para participar en un concurso de falsificaciones mediante IA. Competirán para generar los vídeos, las imágenes y los audios falsos más convincentes mediante una IA. Pero también intentarán desarrollar herramientas que capaces de identificar estas falsificaciones de forma automática.

El concurso incluirá los llamados vídeos "deepfake" o falsificaciones automáticas, en los que la cara de una persona se superpone en el cuerpo de otra. De manera bastante predecible, la tecnología ya se ha utilizado para generar falsificaciones de vídeos pornográficos en los que se inserta la cara de una persona famosa. Pero el método también puede utilizarse para producir un vídeo de un político diciendo o haciendo algo escandaloso.

A los técnicos del DARPA les preocupa especialmente una nueva técnica de IA que podría lograr que las falsificaciones hechas con inteligencia artificial sean casi imposibles de detectar de forma automática. Esta técnica utiliza lo que se conoce como redes generativas antagónicas, o GAN (por sus siglas en inglés de generative adversial network) para generar imágenes artificiales increíblemente realistas. De hecho, este potencial la ha convertido en una de las 10 Tecnologías Emergentes de 2018 de MIT Technology Review.

Vídeo: En este vídeo, el actor y cineasta Jordan Peele manipula el rostro del expresidente Barack Obama para transmitir noticias falsas. Crédito: Buzzfeedvideo | YouTube.

El administrador del programa DARPA responsable del proyecto, David Gunning, señala: "En teoría, si se entrena a una GAN con todas las técnicas conocidas para detectar las falsificaciones, podría transmitirlas todas. No sabemos si hay un límite. No está claro".

Una GAN consta de dos componentes. El primero, conocido como "el actor" o "el generador", intenta aprender los patrones estadísticos de un conjunto de datos, como un conjunto de imágenes o vídeos, para generar datos artificiales convincentes. El segundo, llamado "el crítico" o "el discriminador", intenta distinguir entre ejemplos reales y los falsos generados por su adversario. Los comentarios del sistema crítico permiten al actor producir ejemplos cada vez más realistas. Así que dado que las GAN están diseñadas para aprender engañar a un sistema de inteligencia artificial, no está claro si otro sistema podría identificar sus falsificaciones de forma automática.

Aunque las GAN son relativamente nuevas, no han tardado en ganar popularidad en el campo del aprendizaje automático (ver El señor de las GAN: el hombre que dio imaginación a las máquinas). Las redes generativas antagónicas ya se pueden utilizar para crear celebridades imaginarias de forma realista y para modificar imágenes de manera convincente cambiando un ceño fruncido por una sonrisa o convirtiendo la noche en día.

Por lo general, para detectar una falsificación digital hacen falta tres pasos. El primero consiste en examinar el archivo digital en busca de indicios de solapamiento entre dos imágenes o vídeos. El segundo es analizar la iluminación y otras propiedades físicas de las imágenes en busca de señales de que algo anda mal. Y el tercero, que es el más difícil de hacer de forma automática, y probablemente el más difícil de vencer, requiere analizar las inconsistencias lógicas, como un clima que no encaja con la fecha de grabación o un fondo incorrecto para la supuesta ubicación.

El experto forense digital de la Universidad de Notre Dame (EE. UU.) Walter Scheirer, que participa en el proyecto DARPA, dice que la tecnología ha avanzado muchísimo desde que se lanzó la iniciativa hace un par de años: "Definitivamente estamos en una carrera armamentista".

A pesar de que ya hace tiempo que cualquier experto en gráficos con maña podía generar falsificaciones de apariencia convincente, la inteligencia artificial está poniendo la tecnología al alcance de más personas. El profesor de la Universidad de Dartmouth (EE. UU.) Hany Farid, que se especializa en medicina forense digital, confirma: "La técnica ha dejado de estar limitada a las manos de personas apoyadas por gobiernos y Hollywood para estar a disposición de cualquier usuario de Reddit. Creemos que proteger la democracia es un tema urgente".

Las falsificaciones automáticas utilizan una popular técnica de aprendizaje automático conocida como aprendizaje profundo para incorporar una nueva cara en un vídeo existente de forma automática. Cuando se ingresan grandes cantidades de datos en una red neuronal artificial muy grande o "profunda", un ordenador puede aprender a realizar todo tipo de tareas útiles, como reconocer rostros con precisión. Pero el mismo enfoque también permite manipular vídeos de forma maliciosa. Una herramienta disponible online permite a cualquier persona con un poco de conocimiento técnicos modesto generar nuevos deepfakes. El creador de esa herramienta le comentó a Motherboard que ya está trabajando en una versión más fácil de usar.

El problema va mucho más allá del simple intercambio de rostros. Los expertos creen que no faltará mucho para que sea mucho más difícil identificar una foto, un vídeo o un audio generado por una máquina (ver La tecnología para manipular contenidos amenaza con devolvernos a las noticias del siglo XX). Google incluso ha desarrollado una herramienta llamada Duplex que usa inteligencia artificial para simular una llamada telefónica.

Al tecnólogo jefe del Centro de Responsabilidad de Medios Sociales de la Universidad de Michigan (EE. UU.), Aviv Ovadya, le preocupa que las tecnologías de inteligencia artificial que se están desarrollando puedan usarse para dañar la reputación de alguien, influir en unas elecciones o algo peor. "Estas tecnologías se pueden utilizar de forma maravillosa para el entretenimiento, pero también de formas muy aterradoras", dijo Ovadya en un evento de Bloomberg celebrado el 15 de mayo. Y advirtió: "Ya se han usado imágenes falsas para causar violencia real en todo el mundo en desarrollo. Es un peligro real con el que ya vivimos".

Si la tecnología no logra detectar falsificaciones y desinformación, puede que sea necesario endurecer las leyes. De hecho, el pasado abril Malasia introdujo leyes contra los bulos. Pero Farid cree que esto puede resultar problemático porque la verdad es, en sí misma, un tema complejo: "¿Cómo define qué es una noticia falsa? No es tan fácil como parece. Puedo recortar una imagen y, básicamente, estaría cambiándola. Y, ¿qué hacemos con las plataformas que publican noticias falsas a modo de sátira como El Mundo Today?".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Cómo engañar a un coche autónomo para que acelere cuando no debe

    Un trozo de cinta adhesiva bastó para que las cámaras de varios modelos Tesla creyeran que una señal de velocidad marcaba un límite mayor del real. El hackeo es una prueba más de que los sistemas de aprendizaje automático pueden ser fácilmente saboteados en situaciones de peligro mortal

  2. Razones para prohibir el reconocimiento de emociones cuanto antes

    Mientras otras áreas de la IA, como la conducción autónoma, han sido bien reguladas, los usos comerciales de esta tecnología en áreas como la selección de personal y contratación son cada vez más comunes a pesar de su nulo respaldo científico y de su enorme impacto sobre la vida de la gente

  3. Cómo democratizar la investigación en IA con muebles de IKEA

    El Instituto Allen se ha gastado casi 10.000 euros para amueblar una habitación de 14 formas distintas y ha creado otras 75 versiones virtuales del espacio para que cualquier investigador pueda entrenar a sus algoritmos y robots para mejorar sus capacidades de navegación y su eficacia en tareas domésticas