.

Inteligencia Artificial

Llega la inteligencia artificial capaz de actuar y pensar como un perro

1

Los humanos no somos los únicos seres inteligentes del planeta, así que para que la IA se vuelva más capaz, también puede inspirarse en otros animales. Este sistema no le lamerá la cara, pero es capaz de imitar el comportamiento canino para tomar decisiones parecidas a las de un perro

  • por Emerging Technology From The Arxiv | traducido por Mariana Díaz
  • 18 Abril, 2018

Cualquier persona que tenga perro puede dar fe de la poderosa inteligencia de sus amigos de cuatro patas. De hecho, muchos perros brindan servicios importantes: como guiar a las personas con discapacidades visuales, encontrar personas perdidas y drogas y otro tipo de material de contrabando.

Estas habilidades van más allá de lo que las inteligencias artificiales (IA) más listas del mundo son capaces de hacer. Y, sin embargo, los investigadores aún no se han aprovechado de ellas para entrenar a sus sistemas de inteligencia artificial para conseguir que sean más útiles.

Pero eso acaba de cambiar gracias al trabajo de la investigadora de la Universidad de Washington en Seattle (EE. UU.) Kiana Ehsani y su equipo. Los investigadores han recopilado un conjunto de datos único sobre cómo se comportan los perros y lo han utilizado para entrenar un sistema de IA. EL objetivo era que la máquina aprendiera a tomar decisiones a como lo hacen los perros. Su enfoque abre una nueva área de investigación de IA que estudia el proceso de aprendizaje y las capacidades del resto de seres inteligentes del planeta.

Para empezar, el equipo construyó una base de datos sobre el comportamiento perruno. Para ello, equiparon a un único perro una unidad de medición inercial en sus patas, cola y cuerpo para registrar el ángulo relativo y la posición absoluta del animal. También colocaron una cámara GoPro en la cabeza del animal para grabar la escena visual, captada a una velocidad de cinco fotogramas por segundo. Por último, le pusieron un micrófono para grabar el sonido. Los datos fueron grabados por una unidad Arduino colocada en la espalda del perro.

En total, el equipo reunió alrededor de 24.500 fotogramas de vídeo sincronizados con la posición del cuerpo y los datos de movimiento del animal. Utilizaron 21.000 fotogramas para entrenar a una inteligencia artificial y dedicaron el resto para validar y probar el sistema.

El equipo investigó tres cosas: cómo actuar como un perro, cómo planificar como un perro y cómo aprender de un perro.

El objetivo de la primera tarea era predecir los movimientos futuros del perro a partir de una secuencia de imágenes. Para ello, lla IA mira los fotogramas y estudia qué hizo el perro después de cada uno de ellos.

Este método de aprendizaje consiguió que el sistema pudiera predecir con precisión los siguientes cinco movimientos para una secuencia de cinco imágenes. La investigación detalla: "Nuestro modelo predice correctamente los  futuros movimientos del perro al observar las mismas imágenes que el perro".

La tarea segunda tarea, la de de planificación, fue un poco más difícil. El objetivo era encontrar una secuencia de acciones que hagan que el perro se mueva entre las ubicaciones de un par de imágenes. De nuevo, la inteligencia artificial aprendió a hacerlo al estudiar las acciones asociadas a una amplia gama de secuencias de fotogramas. Una vez más, el sistema funcionó correctamente. La investigación afirma: "Nuestros resultados muestran que nuestro modelo supera estas líneas de base en la difícil tarea de planificar como un perro, tanto en términos de precisión y perplejidad".

La última tarea consistía en aprender a partir del comportamiento del perro. Una cosa que los perros aprenden es por dónde pueden y no pueden caminar. Así que el equipo usó la base de datos para entrenar a la IA para que reconociera qué tipo de superficies son accesibles y pudiera identificarlas en nuevas imágenes.

Es un trabajo interesante que demuestra que los sistemas de inteligencia artificial pueden igualar ciertas habilidades animales. El texto afirma: "Nuestro modelo aprende de la información egocéntrica del movimiento y del vídeo para actuar y planificar como lo haría un perro en la misma situación".

Por supuesto, hay mucho trabajo por delante. La investigación solo ha trabajado con la información de un único perro. Así que el equipo debería estudiar los datos de una amplia gama de perros. Eso les permitiría comparar su comportamiento y comprender la inteligencia visual canina con más detalle.

Pero no hay ninguna razón por la cual el enfoque deba limitarse a los perros. Habría mucho que aprender al reunir conjuntos de datos similares de monos, animales de granja y todo tipo de animales en la naturaleza. La investigación concluye: "Esperamos que este trabajo allane el camino hacia una mejor comprensión de la inteligencia visual y de los otros seres inteligentes que habitan nuestro mundo".

Ref: arxiv.org/abs/1803.10827Who Let The Dogs Out? Modeling Dog Behavior From Visual Data 

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La nueva IA de Google DeepMind aprende a jugar videojuegos sola

    El nuevo agente de Google DeepMind podría enfrentarse a una variedad de juegos que nunca antes había visto observando a jugadores humanos

  2. Cómo la IA nos acerca al paradigma de robots capaces de moverse por el mundo real

    El aprendizaje por refuerzo puede ayudar a los robots a enfrentarse a nuevas tareas que no han intentado antes

  3. Una ‘spinoff’ de OpenAI crea una IA que permite a robots aprender como los humanos

    Pero ¿puede pasar del laboratorio al almacén?