.

Inteligencia Artificial

Un robot aprende a ponerse en pie casi como lo haría un niño

1

En lugar de ser programado, Darwin emplea algoritmos inspirados en el cerebro para "imaginarse" realizando tareas antes de intentarlo

  • por Will Knight | traducido por Teresa Woods
  • 11 Noviembre, 2015

Foto: Darwin intenta mover su torso bajo el control de varias redes neuronales.

Como otros muchos niños pequeños, Darwin a veces se tambalea un poco. Pero con cada movimiento torpe, el robot humanoide está demostrando un nuevo método para conseguir que los androides lidien con entornos complejos o desconocidos. El robot aprende a realizar una nueva tarea al emplear un proceso parecido a los procesos neurológicos que apuntalan el aprendizaje infantil.

Darwin vive en el laboratorio de Pieter Abbeel, un profesor adjunto de la Universidad de California en Berkeley (EEUU). Cuando vi el robot hace un par de semanas, estaba colgado de un trípode con un trozo de cuerda, con un aspecto un poco trágico. Poco antes, Darwin había estado retorciéndose al final de la cuerda, intentando averiguar la mejor forma de mover las extremidades para ponerse en pie sin volcarse.

Los movimientos de Darwin están controlados por varias redes de neuronas artificiales, algoritmos que imitan la forma de aprender de un cerebro biológico mientras las conexiones entre neuronas se fortalecen y se debilitan con el paso del tiempo en respuesta a los estímulos. El enfoque hace uso de unas redes neuronales muy complejas, que se conocen como redes de aprendizaje profundo, que disponen de muchas capas de neuronas artificiales.

Para que el robot aprenda a ponerse en pie y a recolocar su cuerpo, por ejemplo, primero ejecuta una serie de simulaciones para entrenar una red de aprendizaje profundo de alto nivel para que realice la tarea, algo que los investigadores comparan con un "proceso imaginario". Esto proporciona una guía general para el robot, mientras una segunda red de aprendizaje profundo es entrenada para ejecutar la tarea mientras responda a la dinámica de las articulaciones del robot y a la complejidad del entorno real. Se requiere esta segunda red porque cuando la primera red intenta mover una pierna, por ejemplo, la fricción que experimenta en el punto de contacto con el suelo puede despistarlo completamente, provocando la caída del robot.

Los investigadores lograron que el robot aprendiera a ponerse en pie, a mover su mano para realizar movimientos de agarre, y a mantenerse equilibrado cuando la superficie sobre la que se encuentra se incline.

"Practica con simulaciones durante aproximadamente una hora", explica Igor Mordatch, un investigador de postgrado de la Universidad de California que realizó el estudio. "Entonces en modo operativo aprende sobre la marcha cómo no perder el equilibrio".

El grupo de Abbeel ha demostrado con anterioridad cómo el aprendizaje profundo puede habilitar a un robot para la ejecución de una tarea, como hacer que un bloque de juguete pase por un agujero, mediante un proceso de ensayo y error. El nuevo enfoque es importante porque puede que no siempre sea posible que un robot goce de un amplio período de pruebas. Y las simulaciones carecen de las complejidades del mundo real, condiciones que con los robots pueden desencadenar en un fracaso catastrófico.

"Intentamos ser capaces de lidiar con una variabilidad mayor", dice Abbeel. "Incluso un pequeño cambio respecto a cómo fue diseñado dificulta muchísimo que funcione".

La nueva técnica podría resultar útil para cualquier robot que trabaje en todo tipo de entornos reales, pero podría mostrarse especialmente útil para una locomoción más elegante . El enfoque actual es diseñar un algoritmo que tenga en cuenta la dinámica de un proceso como andar o correr (ver De qué hablo cuando hablo de robots que corren). Pero puede resultarles difícil lidiar con las variaciones en el mundo real, como demostraron muchos de los robots humanoides que participaron en el reto DARPA al volcarse mientras andaban sobre arena, o perdiendo el equilibrio al alargar la mano para agarrar algún objeto (ver Los robots demuestran que aún son "estúpidos" en el reto DARPA). "De alguna manera, nos sirvió de recordatorio", dice Abbeel. "Eso es lo que pasa en el mundo real".

Dieter Fox, un profesor del departamento de Ciencias Informáticas e Ingeniería de la Universidad de Washington (EEUU) especializado en la percepción y el control de los robots, dice que el aprendizaje por redes neuronales tiene un potencial enorme dentro de la robótica. "Estoy muy emocionado con este enfoque de investigación", dice Fox. "El problema siempre surge cuando se quiere operar dentro del mundo real. Los modelos son imperfectos. Donde entra en acción el aprendizaje de máquinas, y especialmente el aprendizaje profundo, es al aprender de las interacciones del mundo real del sistema".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Sam Altman vaticina una IA que resuelva tareas del mundo real por nosotros

    El CEO de Open AI afirma que no necesitaremos nuevo hardware ni muchos más datos de entrenamiento para conseguirlo.

    Sam Altman, CEO de OpenAI
  2. El polígrafo de la IA: esta herramienta ayuda a detectar patrañas en chatbots

    En muchas situaciones de alto riesgo, no merece la pena arriesgarse con grandes modelos lingüísticos. Saber qué resultados hay que desechar puede arreglarlo. 

    Un toro mirando al frente con una máquina de polígrafo alrededor del cuello. Detrás, espirales de texto superpuestas.
  3. La ley de la IA de la UE en cuatro claves

    El trabajo duro empieza ahora.

    Un candado azul con las estrellas amarillas de la UE de fondo