.

Unsplash: Florian Van Duyn / Krzysztof Niewolny / Pranay Pareek

Inteligencia Artificial

Cómo mejorar la IA con las imágenes reales que más la engañan

1

Los sistemas de reconocimiento de imágenes suelen confundir ardillas con leones marinos y libélulas con tapas de alcantarilla. Aunque aún no se sabe por qué pasa, estos errores pueden servir para crear una inteligencia artificial que resista mejor a las imágenes manipuladas

  • por Karen Hao | traducido por Ana Milutinovic
  • 02 Julio, 2019

A la inteligencia artificial (IA) se le da muy bien identificar objetos en imágenes, pero todavía se confunde con mucha facilidad. Si se añaden unos cuantos detalles o capas con ruido estático invisible para el ojo humano, el sistema de reconocimiento de imágenes deja de funcionar, y eso a veces puede tener efectos mortales (ver Esta imagen vale más que mil palabras para analizar los riesgos de la conducción autónoma). Si se ponen unos adhesivos a una señal de alto, por ejemplo, un coche autónomo podría confundirla con una señal de límite de velocidad de 75 kilómetros por hora. Si eso ocurriera en una carretera podría provocar que un Tesla se desviara hacia el carril contrario. (En el lado positivo, las mismas técnicas también pueden protegernos de un estado de vigilancia tipo Gran Hermano. Unas veces se gana y otras se pierde).

Todos estos casos se conocen como ejemplos antagónicos, y desde que se conocen, los investigadores luchan para desarrollar formas de proteger los sistemas de inteligencia artificial de ellos. Pero en un artículo del año pasado, un grupo de Google Brain y la Universidad de Princeton (EE. UU.), incluido el padre de las redes generativas antagónicas (GAN), Ian Goodfellow, expresó que estas investigaciones emergentes eran demasiado teóricas y poco acertadas.

Aunque la mayor parte de la investigación se ha centrado en proteger los sistemas frente a las interferencias diseñadas ex profeso, los investigadores creen que los hackers probablemente elegirían una herramienta más contundente: una foto completamente diferente en lugar de un patrón de ruido por capa. Ese método también podría provocar que el sistema funcione mal.

Estas crítica inspiró al estudiante de doctorado de la Universidad de California en Berkeley (EE. UU.) Dan Hendrycks para crear un nuevo conjunto de datos de imágenes a las que ha bautizado "ejemplos antagónicos naturales", que logran engañar a un sistema de IA sin necesidad de ningún retoque especial.

En la muestra aparece una ardilla que los sistemas comunes etiquetan erróneamente como un león marino y una libélula que suelen confundir con una tapa de alcantarilla. "Parece mucho más difícil defenderse de estos ejemplos", resalta. Los ejemplos antagónicos artificiales deben conocer todas las defensas del sistema de IA al que intentan encajar para ser más efectivos. Por su parte, los ejemplos naturales pueden funcionar bastante bien incluso cuando las defensas cambian, afirma.

Hendrycks lanzó una primera versión del conjunto de datos, con alrededor de 6.000 imágenes, durante una reciente conferencia internacional sobre aprendizaje automático. Su plan es lanzar una versión final con cerca de 8.000 imágenes. Le gustaría que la comunidad de investigación utilice su conjunto de datos como punto de referencia.

En otras palabras, en lugar de entrenar a una IA directamente con las imágenes, estas deberían reservarse para la fase de pruebas. "Si la gente solo entrenara sus sistemas con este conjunto de datos solo estaría memorizando estos ejemplos. Eso permitiría resolver el conjunto de datos, pero no la tarea de seguir funcionando con nuevos ejemplos", afirma el investigador.

Descubrir la lógica responsable de los fallos, a veces desconcertantes, que causan esos ejemplos podría dar lugar a sistemas más resistentes. "¿Cómo es posible confundir a una libélula con el guacamole?" bromea Hendrycks, y añade: "No está muy claro de dónde surge el error".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La nueva IA de Google DeepMind aprende a jugar videojuegos sola

    El nuevo agente de Google DeepMind podría enfrentarse a una variedad de juegos que nunca antes había visto observando a jugadores humanos

  2. Cómo la IA nos acerca al paradigma de robots capaces de moverse por el mundo real

    El aprendizaje por refuerzo puede ayudar a los robots a enfrentarse a nuevas tareas que no han intentado antes

  3. Una ‘spinoff’ de OpenAI crea una IA que permite a robots aprender como los humanos

    Pero ¿puede pasar del laboratorio al almacén?