.

Clearpath Robotics

Inteligencia Artificial

Estos nuevos cobots militares podrían revolucionar la robótica civil

1

Son capaces de manipular objetos, moverse entre obstáculos y seguir instrucciones verbales. EE. UU. llevaba años buscando máquinas capaces de actuar como los perros militares, todo un logro con múltiples aplicaciones pero que deja preocupaciones como qué pasará si cometen un error

  • por David Hambling | traducido por Ana Milutinovic
  • 12 Noviembre, 2019

Los robots militares siempre han sido bastante tontos. El PackBot que usa el Ejército de EE. UU. para inspeccionar y eliminar bombas, por ejemplo, prácticamente no posee ninguna inteligencia y necesita ser controlado por control remoto. Pero lo que el Ejército siempre ha querido es lo contrario: robots inteligentes que hagan de compañeros de equipo y puedan seguir órdenes sin supervisión constante.

Y su sueño ahora está un poco más cerca de cumplirse. El laboratorio de investigación del ejército de EE.UU. ha desarrollado un software que permite a los robots comprender instrucciones verbales, llevar a cabo la tarea requerida y dar parte sobre ella. Los posibles beneficios son tremendos. Algún día, un robot capaz de entender órdenes y con cierto nivel de inteligencia artificial podría adelantarse a las tropas para buscar explosivos o emboscadas. También podría reducir la cantidad de soldados humanos necesarios en el terreno.

El experto del MIT Nicholas Roy, quien formó parte del equipo de este proyecto, detalla: "Ni siquiera los coches autónomos tienen un nivel de comprensión suficientemente alto como para poder seguir instrucciones de otra persona y llevar a cabo una misión compleja. Nuestro robot es capaz de hacer exactamente eso".

Roy ha trabajado en este problema desde la Alianza de Tecnologías de Robótica Colaborativa, un proyecto de 10 años dirigido por el Army Research Laboratory (ARL). El equipo cuenta con investigadores del MIT y de la Universidad Carnegie Mellon (EE. UU.) que colaboran con instituciones gubernamentales como el Laboratorio de Propulsión a Chorro de la NASA y empresas de robótica como Boston Dynamics. El programa finalizó el mes pasado, con una serie de eventos para mostrar sus avances. En los encuentros, se pusieron a prueba varios robots para demostrar sus habilidades de manipulación, movilidad entre obstáculos y la capacidad de seguir instrucciones verbales.

El objetivo es que colaboren de forma más efectiva con las personas, como lo haría un perro militar. El jefe del proyecto, Stuart Young, confirma: "El perro es un ejemplo perfecto de lo que buscamos en términos de trabajo en equipo con las personas". Al igual que un perro, los nuevos robots pueden recibir instrucciones verbales e interpretar gestos. Pero también puede ser controlados a través de una tablet y ofrecer datos en forma de mapas e imágenes para que el operador vea exactamente qué hay detrás de un edificio, por ejemplo.

Para ayudar a los robots a entender el mundo que los rodea, el equipo utilizó un enfoque híbrido. El aprendizaje profundo es especialmente bueno en el reconocimiento de imágenes, así que los algoritmos similares a los que utiliza Google para reconocer objetos en las fotos permiten a los robots identificar edificios, vegetación, vehículos y personas. El principal experto en robótica de ARL, Ethan Stump, explica que además de identificar objetos completos, un robot dotado con este software puede reconocer puntos clave como faros y ruedas de un coche lo que ayuda a determinar su posición y orientación exacta.

Después de utilizar el aprendizaje profundo para identificar un objeto, el robot usa una base de conocimientos para extraer información más detallada que ayude a cumplir sus órdenes. Por ejemplo, cuando identifica un objeto como un coche, consulta un conjunto de datos relacionados con los coches: es un vehículo, tiene ruedas y un motor, y así sucesivamente. Sin embargo, estos datos deben codificarse manualmente y su recogida lleva mucho tiempo, por lo que Stump subraya que el equipo está buscando formas de simplificar esta parte del proceso. (Y no son los únicos que se enfrentan a este desafío: el programa Machine Common Sense (MCS) de DARPA combina el aprendizaje profundo con un enfoque centrado en la base del conocimiento para que un robot pueda aprender y mostrar algo parecido al juicio humano).

Young ofrece el ejemplo con una orden: "Ve detrás del camión más alejado a la izquierda". Además de reconocer los objetos y su ubicación, el robot tiene que entender qué significa "atrás" e "izquierda", conceptos que dependen de dónde se encuentre su emisor y hacía dónde señala. Su conocimiento codificado del entorno le da más pistas conceptuales sobre cómo llevar a cabo su tarea. El robot también puede hacer preguntas para aclarar las ambigüedades. Si se le dice que "vaya detrás del edificio", podría responder con: "¿Te refieres al edificio de la derecha?"

Stump detalla: "Hemos integrado versiones básicas de todas las piezas necesarias para permitir que se comporte como un compañero de equipo. El robot puede hacer mapas, etiquetar objetos en esos mapas, interpretar y ejecutar comandos simples con respecto a esos objetos y pedir aclaraciones cuando haya ambigüedad en el comando".

En el último evento, se utilizó el robot Husky de cuatro ruedas para demostrar lo bien que el software permitía a los robots entender las instrucciones. Dos de las tres demostraciones fueron perfectas. El robot tuvo que reiniciarse durante el tercer intento cuando su sistema de navegación se bloqueó.  El responsable añade: "Nos llegó el comentario de que, si el robot no hubiera fallado, habría parecido que la demostración estaba manipulada, por lo que creo que se valoró que estuviéramos mostrando un sistema que realmente hacía algo".

Al igual que con los perros militares, Young considera que la confianza es la clave para lograr que los robots y los humanos trabajen juntos. Los soldados deberán entender las capacidades y limitaciones de los robots, y al mismo tiempo, la máquina entenderá el lenguaje y los procedimientos de la unidad militar.

Pero quedan otros dos grandes desafíos. Primero, actualmente el robot resulta demasiado lento para un uso práctico. En segundo lugar, debe ser mucho más resistente. Todos los sistemas de inteligencia artificial pueden tener problemas, pero, en situaciones de vida o muerte, los robots militares deben ser 100 % fiables. Estos desafíos se abordarán en el programa ARL de seguimiento.

El equipo cree que este trabajo del ejército podría tener un impacto en el mundo en general. Si los robots autónomos logran hacer frente a entornos complejos del mundo real, trabajar junto a los humanos y recibir instrucciones verbales, tendrá una infinidad de usos, desde en la industria y en la agricultura hasta en el ámbito doméstico. Sin embargo, la participación militar en este proyecto plantea preocupaciones para algunos expertos en robótica como el CEO del Instituto Allen de Inteligencia Artificial, Oren Etzioni. El responsable destaca: "Los sistemas actuales de inteligencia artificial y robótica son frágiles y propensos a malentendidos; por ejemplo, Alexa o Siri. Si los ponemos en el campo de batalla, espero que no les demos ninguna capacidad destructiva".

Etzioni cita una serie de problemas asociados a los robots militares autónomos, como qué pasaría si son hackeados o cometen un error. También se pregunta si los robots destinados a salvar vidas podrían hacer que el conflicto sea más probable. Y concluye: "Hasta que comprendamos bien estos temas, me posiciono en contra de los robot-soldados autónomos".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Esta IA ha leído a Shakespeare para saber qué parte de una obra escribió

    Numerosos historiadores han intentado descubrir qué escenas de 'Enrique VIII' fueron escritas por el dramaturgo británico y cuáles por otro autor, John Fletcher. Ahora, un algoritmo de aprendizaje automático ha analizado el estilo de ambos para averiguar qué líneas elaboró cada uno 

  2. Cómo acabar con los algoritmos sexistas que conceden créditos

    Goldman Sachs está siendo investigada por discriminación de género tras una reciente polémica con Apple Card, pero la compañía alega que no tiene en cuenta el género para determinar la solvencia crediticia de un cliente. Las investigaciones sugieren que en realidad incluir ese criterio mitigaría el sesgo algorítmico

  3. Estas técnicas predicen conflictos antes de una escalada de violencia

    Gracias al aprendizaje automático o a las mejoras en recogida de datos, se han desarrollado modelos más precisos para pronosticar asesinatos masivos. Un ejemplo es ViEWS, que ha sido capaz de predecir algunos episodios de violencia en Etiopía. Aunque aún no son perfectos, podrían ayudar a salvar vidas