.

Mr. Tech

Inteligencia Artificial

Un sencillo truco engaña a la inteligencia artificial para que vea y oiga cosas que no existen

1

El algoritmo Houdini inserta rasgos inapreciables para un humano en audios e imágenes que hacen que la máquina cambie totalmente su interpretación de la realidad. La técnica serviría para testear algoritmos de coches autónomos, pero también para provocar accidentes

  • por Jamie Condliffe | traducido por Patricia R. Guevara
  • 01 Agosto, 2017

A la inteligencia artificial (IA) ya se le da muy bien identificar los objetos de una imagen y reconocer las palabras que dice una persona, pero sus algoritmos no funcionan igual que el cerebro humano. Esto provoca que las máquinas puedan ser engañadas en situaciones en las que jamás se equivocaría un humano.

Según un artículo en New Scientist, unos investigadores de la Universidad Bar-Ilan (Israel) en colaboración con el equipo de IA de Facebook demuestran que si se hacen unos pequeños y sutiles ajustes a un clip de audio, cualquier humano lo entendería como una grabación normal pero la máquina lo reconocería como algo totalmente diferente. Para lograrlo, sólo hay que añadir una capa de ruido silenciosa que contiene patrones específicos que una red neuronal asocia con otras palabras.

El equipo aplicó su algoritmo, llamado Houdini, a una serie de clips de audio. Una vez que el algoritmo insertó las nuevas características en los audios, estos fueron reproducidos ante el programa Google Voice para que los transcribiera. Por ejemplo, uno de los clips originales decía:

Su carácter era gracioso y animado, llevaba a su hijo de la mano y delante de ella, dos criadas caminaban con velas y candelabros de plata.

Cuando ese original fue pasado a través de Google Voice, el programa lo transcribió como:

El carácter era gracioso ella animada dejó a su hijo de la mano y antes de que él caminara dos criadas con velas y candeleros de plata.

Pero la versión modificada por el algoritmo, que los humanos percibieron como similar a la original, fue transcrita así por el programa de Google:

María estaba agradecida, entonces admitió que dejó a su hijo antes de los paseos a Mays le gustaría que el filtro del horno cuente seis.

El avance del equipo también se puede aplicar a otros algoritmos de aprendizaje automático. Por ejemplo, si el programa ajusta imágenes de personas, se puede confundir a un algoritmo especializado en reconocer poses humanas para que crea que el sujeto de la imagen está en una postura distinta a la que está en realidad, como en el ejemplo de la imagen superior. Y cuando Houdini se aplicó a una escena de carretera, el equipo engañó a un algoritmo de detección de coches autónomos para que, en lugar de reconocer elementos como caminos y señales, la máquina viera… un minion. Los resultados del trabajo en imágenes son similares a los de la investigación publicada el año pasado por investigadores de las divisiones de aprendizaje automático OpenAI y Google Brain.

Estos llamados ejemplos contradictorios pueden parecer un área de investigación un tanto extraña, pero sirven para testear los algoritmos de aprendizaje automático. Aunque también podrían dárseles un mal uso si se emplean para engañar a los sistemas de inteligencia artificial para que crean que están viendo u oyendo cosas que en realidad no están ahí. Esto podría convencer a un coche autónomo de que hay tráfico en una vía despejada y engañar a un altavoz inteligente para escuchar comandos incorrectos, por ejemplo. Por supuesto, ejecutar estos engaños en la vida real sería bastante distinto a los ejemplos de laboratorio, dada la dificultad de integrar los datos falsos en los sistemas del vehículo y el altavoz.

Lo más interesante de la investigación es que resulta bastante difícil encontrar una manera de proteger a las inteligencias artificiales contra este tipo de artimañas. Como hemos explicado en otras ocasiones, todavía no sabemos cómo funcionan por dentro las redes neuronales, por lo que tampoco entendemos por qué son receptivas a estas características tan sutiles en un clip de voz o una imagen. Y hasta que no lo hagamos, los ejemplos contradictorios seguirán siendo, en fin, engañosos para las máquinas.

(Para saber más: El secreto más oscuro de la inteligencia artificial: ¿por qué hace lo que hace?, Los ordenadores ven mejor que los humanos hasta que alguien intenta engañarlos)

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El polígrafo de la IA: esta herramienta ayuda a detectar patrañas en chatbots

    En muchas situaciones de alto riesgo, no merece la pena arriesgarse con grandes modelos lingüísticos. Saber qué resultados hay que desechar puede arreglarlo. 

    Un toro mirando al frente con una máquina de polígrafo alrededor del cuello. Detrás, espirales de texto superpuestas.
  2. La ley de la IA de la UE en cuatro claves

    El trabajo duro empieza ahora.

    Un candado azul con las estrellas amarillas de la UE de fondo
  3. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana