.

Inteligencia Artificial

El mundo en 3D de Google: una gran escuela para la inteligencia artificial global

1

DeepMind Lab es totalmente personalizable y se centra en la técnica de aprendizaje reforzado. Los expertos celebran la iniciativa que impulsará la transparencia y los avances en el campo

  • por Will Knight | traducido por Teresa Woods
  • 14 Diciembre, 2016

Google DeepMind, una subsidiaria de Alphabet centrada en la inteligencia artificial (IA), acaba de presentar un nuevo mundo virtual en 3D con el que otros investigadores podrán experimentar y modificarlo a su gusto.

La nueva plataforma, llamada DeepMind Lab, se parece a un videojuego en 3D de disparos de primera persona. Dentro del mundo, un sistema de IA adopta la forma de orbe flotante que puede percibir su entorno, desplazarse y ejecutar acciones sencillas. Los sistemas pueden ser entrenados para realizar varias tareas mediante una forma de aprendizaje automático que incluye recompensas positivas. Las sencillas tareas de ejemplo de la plataforma incluyen navegar un laberinto, recolectar fruta y atravesar pasos estrechos sin caerse.


Crédito: DeepMind.

El director científico y cofundador de DeepMind, Shane Legg, afirma: "Intentamos que estos agentes de inteligencia artificial que puedan aprender a rendir bien en un amplio abanico de tareas a partir de mirar el entorno y observar lo que pasa".

DeepMind acaparó algunos de sus primeros grandes titulares con sus sistemas de IA capaces de aprender, mediante ensayo y error, a jugar a muchos videojuegos de Atari (ver La inteligencia artificial de Google juega al Space Invaders mejor que los humanos).

Un mundo en 3D personalizable y abierto proporciona retos más complejos y visualmente ricos, pero también implica un abanico mucho más amplio de tareas en potencia. DeepMind Lab podría dar paso a algoritmos de IA capaces de aprovecharse de su aprendizaje adquirido al convertirlo en una tarea del siguiente nivel.

Disponer sistemas de inteligencia artificial que trabajen dentro de un entorno en 3D también podría aportar beneficios al desarrollo de algoritmos de control para los sistemas que operan en el mundo real como los robots industriales, señala Legg.

Además, la idea de crear sistemas que aprenden sobre un mundo simulado a partir de principios básicos se aprovecha de ideas clave sobre cómo aprendemos los humanos, algo que Legg exploró durante su carrera académica. El experto detalla: "Al igual que tú o yo aprenderíamos sobre el mundo de niños, es un enfoque muy fundamental para este problema de aprendizaje y generalidad".

Otros expertos de IA celebran el lanzamiento de DeepMind Lab. "Está muy bien que estén lanzando más entornos", dice el cofundador y director de investigaciones de OpenAI,  Ilya Sutskevar, cuya organización sin ánimo de lucro se dedica realizar investigaciones básicas y publicar los resultados públicamente. "Cuántos más entornos para agentes de aprendizaje reforzado estén disponibles, más rápido avanzará el campo", añade. 

El profesor de la Universidad de Cambridge (Reino Unido) Zoubin Gahrahmani dice que DeepMind Lab y otras plataformas para el aprendizaje reforzado aumentan la transparencia de los progresos al permitir a los investigadores probar las ideas de otros.

Sin embargo, Gahrahmani también señala que los enfoques existentes no siempre igualan las capacidades humanas. Por ejemplo, normalmente un humano tarda mucho menos en dominar un videojuego o juego de mesa. El experto concluye: "Los enfoques de aprendizaje reforzado son muy ineficientes en cuanto a la cantidad de datos [que requieren]. ¿Cómo logramos que los sistemas aprendan a un ritmo comparable con el de los humanos?"

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. La capacidad clave que la IA aún no tiene

    La inteligencia artificial nunca alcanzará una inteligencia real hasta que no entienda la causalidad e identifique las relaciones causa-efecto que se esconden en los datos. Cuando lo logre, podríamos desarrollar un científico automatizado que indique cuáles son los experimentos más prometedores

  2. Cómo engañar a un coche autónomo para que acelere cuando no debe

    Un trozo de cinta adhesiva bastó para que las cámaras de varios modelos Tesla creyeran que una señal de velocidad marcaba un límite mayor del real. El hackeo es una prueba más de que los sistemas de aprendizaje automático pueden ser fácilmente saboteados en situaciones de peligro mortal

  3. Razones para prohibir el reconocimiento de emociones cuanto antes

    Mientras otras áreas de la IA, como la conducción autónoma, han sido bien reguladas, los usos comerciales de esta tecnología en áreas como la selección de personal y contratación son cada vez más comunes a pesar de su nulo respaldo científico y de su enorme impacto sobre la vida de la gente