.

Inteligencia Artificial

Un robot dirigido con la mente ayuda con telepresencia a personas discapacitadas

1

El control cerebral se convierte en una manera más práctica para dirigir los robots cuando estos pueden encargarse de parte del trabajo

  • por Signe Brewster | traducido por Teresa Woods
  • 01 Diciembre, 2015

Foto: Una usuaria puede dirigir el robot con sus pensamientos.

Las personas que sufren de una discapacidad motriz grave están probando un nuevo método para interactuar con el mundo a través de un robot controlado por señales cerebrales.

Un robot experimental de telepresencia creado por investigadores italianos y suizos utiliza su propia inteligencia para facilitarle las cosas a la persona que lo utilice gracias a un sistema llamado control compartido. El usuario le indica al robot por dónde ha de desplazarse mediante un casco detector de ondas cerebrales, y el robot se encarga de detalles como evitar los obstáculos y determinar la mejor ruta hacia su destino.

El robot es, en esencia, un portátil montado sobre una base con ruedas. El usuario visualiza el entorno mediante la cámara web del portátil, y puede hablar con otras personas por Skype.

Para controlar el robot, el usuario lleva una gorra que incorpora sensores de electroencefalograma (EEG), e imagina movimientos con sus manos o pies. Cada movimiento se corresponde con un comando distinto como hacia delante, hacia atrás, a la izquierda o derecha. El software traduce las distintas señales generadas en acciones para el robot (ver Un implante cerebral logra controlar un ordenador a distancia y sin cables).

Sin embargo, el software de control del robot decide por sí mismo la mejor manera de cambiar de trayectoria y acelerar para llegar hasta donde se le ha indicado que vaya. Dispone de nueve sensores de infrarrojos que alertan de los obstáculos, que el robot puede desplazar mientras siga las instrucciones del usuario.

Ese diseño hace que el robot resulte lo suficientemente fácil de usar como para ofrecer una manera práctica de dotar a los discapacitados de una independencia mayor, afirma Robert Leeb, un investigador científico del École Polytechnique Fédérale de Lausanne que trabajó en el proyecto. "Imagínate un usuario tumbado en la cama en su casa conectado con todos los equipos necesarios para apoyar su vida", dice. "Con un robot de telepresencia de este estilo, podría participar de nuevo en la vida de su familia" (ver Experimentar con los pensamientos).

Los investigadores probaron el robot al hacer que varias personas, con y sin discapacidades motrices, lo dirigieran por varias habitaciones llenas de obstáculos. Ambos grupos fueron capaces de dirigir el robot por el circuito con unos tiempos de recorrido muy similares. Necesitaron emplear menos comandos que cuando controlaron el robot por completo, y terminaron el circuito en menos tiempo.

Los participantes sin discapacidades motrices también realizaron pruebas diseñadas para medir la rapidez con la que podían dirigir el robot manualmente sin darle autonomía. El estudio concluyó que estos tiempos sólo fueron ligeramente más cortos que cuando compartieron el control y navegaron mediante la interfaz cerebro-máquina. Los investigadores publicaron sus resultados en una edición reciente de la revista científica Proceedings of the IEEE.

Los investigadores están explorando las interfaces cerebro-máquina para todo tipo de aplicaciones, desde la dirección de las sillas de ruedas hasta el control físico de las extremidades prostéticas. Las versiones que se implantan en el cerebro del usuario pueden proporcionar un control impresionante de las extremidades prostéticas, pero resultan complicadas de instalar y mantener, y su uso no se ha extendido (ver Experimentar con los pensamientos).

Las interfaces cerebro-máquina no invasivas que detectan las señales EEG sólo al entrar en contacto con el cuero cabelludo en varios sitios, concretos resultan menos potentes, pero más prácticas. Están disponibles algunos sistemas sencillos para su uso en casa, como la diadema Muse, que está diseñada para facilitar la meditación, y Emotiv, diseñado para los juegos.

"Durante los últimos cinco años, las interfaces cerebro-máquina han dado un paso enorme hacia su salida del laboratorio y su introducción en entornos domésticos", afirma Gernot Muller-Putz, que lidera el Instituto BCI de la Universidad Tecnológica de Graz (Austria). Los dispositivos que antes se diseñaban con los investigadores en mente se han reimaginado con una atención mayor a las necesidades de las personas que pueden querer o necesitar utilizarlos para interactuar con la tecnología, explica.

Sin embargo, advierte Leeb, su sistema de control compartido para robots no se dirigirá al mercado durante años. La mayor parte de los esfuerzos por comercializar las interfaces cerebro-máquina basadas en las señales EEG se centran en dispositivos de uso único y de bajo coste, no en fabricar sensores de alta calidad que puedan utilizarse en muchas aplicaciones distintas.

"Si desarrollamos un sistema que entonces pueda ser utilizado fácilmente por todos, como un móvil, esto impulsaría la tecnología de las interfaces cerebro-máquina enormemente", concluye Leeb.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La nueva IA de Google DeepMind aprende a jugar videojuegos sola

    El nuevo agente de Google DeepMind podría enfrentarse a una variedad de juegos que nunca antes había visto observando a jugadores humanos

  2. Cómo la IA nos acerca al paradigma de robots capaces de moverse por el mundo real

    El aprendizaje por refuerzo puede ayudar a los robots a enfrentarse a nuevas tareas que no han intentado antes

  3. Una ‘spinoff’ de OpenAI crea una IA que permite a robots aprender como los humanos

    Pero ¿puede pasar del laboratorio al almacén?