.

Computación

Un robot que navega como las personas

1

Un nuevo robot se mueve utilizando procesos visuales y detección de objetos similares a los humanos.

  • por Anne-marie Corley | traducido por Francisco Reyes (Opinno)
  • 30 Junio, 2009

Unos investigadores europeos han desarrollado un robot capaz de moverse de forma autónoma mediante el uso de procesos visuales parecidos a los humanos. Los investigadores están utilizando el robot para explorar la forma en que el cerebro responde a su entorno mientras que el cuerpo está en movimiento. Los descubrimientos podrían ayudar a la creación de máquinas que se capaces de moverse mejor entre espacios abarrotados de objetos.

El robot consiste en una plataforma con ruedas y una “cabeza” robótica que utiliza dos cámaras para capturar la visión estereoscópica. El robot es capaz de girar la cabeza y mover la mirada arriba y abajo, o a los lados, para hacerse una idea de su entorno, y rápidamente calcula su propia velocidad en relación a su entorno.

La máquina está controlada por unos algoritmos diseñados para simular las distintas partes del sistema visual humano. En vez de capturar y trazar un mapa de su entorno una y otra vez para así planificar su ruta—algo que hacen la mayoría de robots—la máquina europea utiliza una red neuronal simulada que actualiza su posición en relación al entorno, realizando constantes ajustes con cada nueva información. Esto es una imitación del proceso visual y planificación de movimiento humanos.

Mark Greenlee, catedrático de psicología experimental en la Universidad de Regensburg en Alemania, así como coordinador del proyecto, afirma que los modelos informáticos del cerebro humano tienen que ser validados a través de la experimentación. El robot imita una serie de funciones del cerebro humano—reconocimiento de objetos, estimación del movimiento, y toma de decisiones—para navegar a través de una habitación, yendo hacia objetivos concretos a la vez que evita los obstáculos y las paredes.

Diez grupos distintos de investigadores europeos, cada uno experto en campos diferentes como la neurociencia, las ciencias informáticas y la robótica, fueron los encargados de diseñar el robot a través de un proyecto llamado Decisions in Motion (Decisiones en Movimiento.) El reto del grupo consistió en unificar campos de la neurociencia que tradicionalmente han estado separados, e integrarlos dentro de un “modelo de arquitectura coherente,” afirma Heiko Neumann, profesor del Laboratorio de Visión y Percepción en la Universidad de Ulm, en Alemania, y que ayudó a desarrollar los algoritmos que controlan el movimiento del robot.

Normalmente, afirma Neumann, los neurocientíficos se centran en un aspecto particular de la visión y el movimiento. Por ejemplo, algunos estudian el “flujo ventral” del cortex visual, que está relacionado con el reconocimiento de objetos, mientras que otros estudian el “flujo dorsal”, relacionado con la estimación de movimiento en base al entorno, o el “flujo óptico.” Hay quienes estudian el modo en que el cerebro toma la decisión de hacer un movimiento en base a los datos que le llegan de los flujos ventral y dorsal. Sin embargo, para desarrollar un modelo informático para la navegación que sea real y parecido al humano, los investigadores necesitan incorporar todos estos aspectos en un único sistema.

Para conseguir este propósito, el equipo de Greenlee empezó por estudiar imágenes cerebrales tomadas por IRMf capturadas mientras un grupo de personas se movía a través de obstáculos. Los investigadores entregaron sus descubrimientos al grupo de Neumann, que desarrolló unos algoritmos diseñados para imitar la habilidad del cerebro a la hora de detectar el movimiento del cuerpo, así como el movimiento de los objetos a través de los que se mueve en el entorno que le rodea. Los investigadores también incorporaron unos algoritmos desarrollados por Simon Thorpe del Centro Nacional de Francia para la Investigación Científica (CNRS) El software SpikeNet de Thorpe utiliza el orden de los disparos neuronales dentro de una red neuronal para simular la forma en que el cerebro es capaz de reconocer objetos rápidamente, en vez de utilizar los métodos más tradicionales basados en la cuota de disparo neuronal.

Una vez que se instaló el software en el robot, los investigadores descubrieron que realmente se movía como un humano. Al pasar cerca de un obstáculo el robot se movía lentamente, puesto que sabía que podía recalcular su camino sin tener que cambiar su curso de movimiento demasiado. Cuando se movía más rápidamente hacia el objetivo, el robot ponía más distancia entre él y los obstáculos puesto que tenía menos tiempo para calcular una nueva trayectoria.

Los robots que navegan mediante el uso de métodos más convencionales puede que sean más eficientes y fiables, afirma Antonio Frisoli desde el Laboratorio PERCRO en la Scuola Superiore Sant’Anna, en Pisa, Italia, y que dirigió al equipo que construyó la cabeza del robot. Por ejemplo, un robot guiado por un sistema láser de localización de rangos y unos algoritmos convencionales para la planificación de rutas tomaría el camino más directo entre un punto A y un punto B. Sin embargo el objetivo del equipo no era competir con los robots más rápidos y eficientes. En vez de eso, los investigadores querían entender cómo navegan los humanos. Nosotros, igualmente, afirma Frisoli, “adaptamos nuestra trayectoria en función de nuestra velocidad al caminar.”

Entre las aplicaciones que podrían dársele a esta tecnología está la creación de sillas de ruedas “inteligentes” que puedan navegar fácilmente en espacios interiores, afirma Greenlee. Unos cuantos miembros del consorcio han solicitado una subvención para seguir investigando esta aplicación, mientras que otro de los socios originales, Cambridge Research Systems, en el Reino Unido, está desarrollando un dispositivo que se coloca en la cabeza y podría ayudar a las personas con discapacidad visual a detectar obstáculos y peligros, comunicándoselos a la persona que lleve puesto el aparato.

Tomaso Poggio, que dirige el Centro para el Aprendizaje Informático y Biológico del MIT y que se dedica al estudio del aprendizaje visual y reconocimiento de lugares, afirma en relación al proyecto de la UE que “Parece haber una tendencia, desde la neurociencia a la ciencia informática, por fijarse en el cerebro para desarrollar nuevos sistemas.” Añade que estamos “en la cúspide de una nueva etapa donde la inteligencia artificial está obteniendo información de la neurociencia,” y afirma que “definitivamente existen áreas de la inteligencia como la visión, la comprensión del habla o el control motor-sensorial, en las que nuestros algoritmos son bastante inferiores a lo que el cerebro es capaz de hacer.”

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. ‘Chiplets’: el arma de China en su batalla tecnológica contra EE UU

    Al conectar varios chips menos avanzados en uno, las empresas chinas podrían eludir las sanciones impuestas por el gobierno estadounidense.

  2. Esta ciudad china quiere ser el Silicon Valley de los ‘chiplets’

    Wuxi, el centro chino del envasado de chips, está invirtiendo en la investigación de ‘chiplets’ para potenciar su papel en la industria de semiconductores

  3. La computación cuántica se abre camino a través del ruido

    Durante un tiempo, los investigadores pensaron que tendrían que conformarse con sistemas ruidosos y propensos a errores, al menos a corto plazo. Esto está empezando a cambiar.

    Jay Gambetta dirige el desarrollo de los ordenadores cuánticos de IBM y lideró la iniciativa de llevar estos sistemas a la nube.