.

Inteligencia Artificial

El nuevo gran reto de la inteligencia artificial: colaborar consigo misma

1

La última competición de Microsoft intenta buscar las mejores estrategias para que distintos sistemas cooperen entre sí para lograr mejores resultados. El mejor mecanismo para lograrlo ha consistido en combinar varios enfoques de entrenamiento, pero ninguno se alza como el mejor

  • por Will Knight | traducido por Teresa Woods
  • 26 Junio, 2017

Pelear contra un cerdo, aunque sea virtual, resulta mucho más fácil si se tiene la ayuda de un amigo. Esta es la conclusión a la que ha llegado un concurso organizado por unos investigadores de Microsoft para probar cómo los sistemas de inteligencia artificial (IA) pueden cooperar entre ellos para resolver problemas difíciles. Pero cómo se colabora con este compañero anticerdos es otra cuestión.

La competición aborda un área de la inteligencia artificial que ha recibido poca atención hasta ahora. Los investigadores de IA suelen desarrollar software capaz de realizar una tarea humana específica, como jugar al ajedrez o al Go, para medir su rendimiento en función de capacidad de derrotar a un jugador humano. Sin embargo, una gran parte de la inteligencia humana implica comunicación, inteligencia social y la teoría de la mente, que es la capacidad de interpretar y anticiparse a las intenciones de otro ente inteligente.

El proyecto da pistas sobre cómo los seres humanos y los sistemas de inteligencia artificial podrían llegar a colaborar algún día para lograr más que la suma de sus partes. "Esto forma parte de una tendencia más amplia de replantear la inteligencia artificial como una inteligencia aumentada en lugar de como una mera inteligencia artificial", explica el director ejecutivo del Instituto Allen para la Inteligencia Artificial, Oren Etzioni.

Para el concurso de Microsoft, los sistemas de inteligencia artificial trabajaron juntos dentro del Proyecto Malmo, una versión especial del juego abierto para ordenador Minecraft. Un investigador de Microsoft diseñó este entorno para importar y ejecutar pruebas para técnicas distintas de inteligencia artificial. Harán falta muchos más avances para que los sistemas de IA sean capaces de formar equipos, pero el concurso ofrece una manera de probar algunas ideas.

Para la competición, los agentes debían intentar controlar y atrapar a un bravo cerdo virtual, ya fuera por su cuenta o con la ayuda otro sistema. Los mejores equipos del Reto de IA Colaborativa Malmo utilizaron métodos avanzados del aprendizaje automático como el aprendizaje profundo para lograr que sus sistemas aprendieran a trabajar en equipo.  Para ello fueron necesarias grandes cantidades de datos. Pero algunos participantes también se decantaron por enfoques más antiguos y menos populares que implican entrenar al sistema con información codificada a mano.

Los ganadores del concurso, un equipo de la Universidad de Oxford (Reino Unido), utilizaron el aprendizaje reforzado, una especie de aprendizaje automático inspirado en la forma en la que aprenden los animales a través de la experimentación. Sus agentes recibían un refuerzo positivo cada vez que conseguían doblegar al cerdo de forma colabotativa.

La investigadora principal del proyecto Malmo de Microsoft, Katja Hofmann, señala que muchos equipos combinaron diferentes enfoques. "Ningún enfoque por sí solo se ha posicionado como claro ganador", asegura, y añade que es probable que los enfoques híbridos "ofrezcan los caminos más prometedores para futuras investigaciones".

El desafío de la lucha contra cerdos se basa en un experimento mental conocido como la caza del ciervo, que explora conceptos de la teoría de juegos, una rama de las matemáticas que se ocupa de la cooperación y las estrategias de negociación. La idea es que dos cazadores deben decidir entre cazar una liebre individualmente o trabajar en equipo para lograr hacerse con un ciervo. Los mejores equipos del reto, en función de las puntuaciones obtenidas y la novedad de sus trabajos, recibirán una beca de investigación de 18.000 euros y una plaza en la Escuela de Verano de Investigaciones de IA de Microsoft.

El profesor de la Universidad de Washington (EEUU) Pedro Domingos, que estudia el aprendizaje automático y la minería de datos, advierte que el entrenamiento del software de inteligencia artificial dentro de entornos simulados tiene sus inconvenientes. El software puede optimizarse demasiado para ese entorno concreto, lo que puede volverlo inútil en un contexto del mundo real, explica. Aunque los mundos simulados más sofisticados están empezando a evitar este fenómeno.

Domingos añade que la cooperación entre seres humanos es tan compleja y sutil que resulta difícil imaginar que el proyecto de Microsoft logre reproducirla. Sin embargo, a pesar de cierto escepticismo, se siente alentado por el proyecto. El experto concluye: "Seguimos en los primeros días de este sector, y Minecraft es un entorno con muchas posibilidades. [Es] más rico que las cosas que se han utilizado antes, por lo que desde luego parece que merece la pena intentarlo".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Por qué los niños deben comprender la IA para usarla mejor

    Un programa piloto del MIT Media Lab enseña a los pequeños cómo se desarrolla un algoritmo para que entiendan mejor los sesgos que se pueden generar. Conocer cómo afecta la inteligencia artificial a la sociedad les puede ayudar a darse cuenta de que la tecnología que les rodea no es neutral

  2. Por qué limitar las exportaciones de IA es una idea pésima

    EE. UU. cree que la inteligencia artificial le convertirá en líder de la industria militar, así que se está planteando aumentar el control sobre sus exportaciones con esta tecnología, principalmente hacia China. Pero la medida podría perjudicar a sus propias empresas y beneficiar al país asiático

  3. (Por fin) Facebook toma medidas para combatir la plaga de 'deepfakes'

    La red social creará sus propias ultrafalsificaciones y las usará para desarrollar sistemas capaces de detectarlas automáticamente. Cada vez más empresas, políticos y expertos alertan del enorme problema que supondrán cuando se masifiquen, ya que incluso podrían usarse para el acoso escolar