.

Inteligencia Artificial

Este superordenador busca la inteligencia oculta en los hilos de Reddit

1

Investigadores de OpenAI están desarrollando algoritmos capaces de aprender el lenguaje natural mediante el análisis de los mensajes de la web

  • por Will Knight | traducido por Diego Soto de Lucas
  • 17 Agosto, 2016

¿Es posible que el secreto de desarrollar una inteligencia artificial (IA) resida en pasar horas y horas leyendo Reddit?

Esta es la pregunta que espera responder OpenAI, una organización sin ánimo de lucro respaldada por varias de las mentes más prodigiosas de Silicon Valley (EEUU). Para esta tarea, OpenAI utilizará un nuevo tipo de superordenador desarrollado por el fabricante de chips Nvidia. Los investigadores también están entrenando a los robots para que laven los platos mediante la experimentación, y están creando algoritmos capaces de aprender a jugar a una gran variedad de juegos de ordenador.

Este nuevo ordenador, el DGX-1, está optimizado para la versión de aprendizaje automático conocida como aprendizaje profundo, el cual suministra datos a una red de neuronas simuladas, y gracias al cual ya se han logrado gandes avances en IA durante los últimos años. El DGX-1 permitirá que los investigadores de IA enseñen a los sistemas de aprendizaje profundo de forma más rápida utilizando más datos. A modo de comparación aproximada, unos cálculos que tardarían 250 horas en procesarse mediante un ordenador tradicional, tardarían solo 10 horas con el DGX-1.

Foto: el CEO de Nvidia, Jen-Hsun Huang, entrega el primer DGX-1 a OpenAI, de Elon Musk. Crédito: imagen cedida por Nvidia.

En OpenAI, el aumento de rendimiento que ofrece este nuevo hardware se reflejaría de forma más inmediata en comprensión del lenguaje natural. Los investigadores de OpenAI están procesando hilos de mensajes del popular sitio web Reddit a través de algoritmos que generan una comprensión probabilística de la conversación. Si le suministran bastantes ejemplos, el modelo de lenguaje subyacente sería suficientemente bueno como para entablar una conversación por sí solo, o eso esperan los investigadores. Y el hardware permitirá procesar muchos más fragmentos pequeños de texto en el modelo y aplicar más potencia de cálculo al problema.

El científico investigador de OpenAI Andrej Karpathy cree que las técnicas modernas de aprendizaje automático suelen ser más inteligentes a medida que aumenta su tamaño. En un vídeo publicado recientemente por Nvidia, Karpathy afirma: "El aprendizaje profundo es un modelo muy específico porque, a medida que se escala el modelo, también funciona mejor".

El lenguaje sigue siendo un problema complejo para la inteligencia artificial, pero durante los últimos años los investigadores han logrado progresos al aplicar el aprendizaje profundo al problema. Por ejemplo, los investigadores de Google procesaron diálogos de películas con un sistema de aprendizaje profundo diseñado originalmente para realizar traducciones, y demostraron que era capaz de responder ciertas preguntas de forma bastante aceptable.

Los investigadores de OpenAI también planean explorar si es posible que un robot utilice el lenguaje para interactuar con personas reales. Sin embargo, esta investigación aún se halla en un estadio inicial, y será más sencillo escalar el trabajo utilizando Reddit. Karpathy considera que el nuevo hardware ayudaría a que los modelos entrenados con datos de Reddit procesasen años de conversaciones, en vez de solo unos meses.

Nvidia, que desarrolla procesadores de gráficos para videjuegos, se ha beneficiado del auge del aprendizaje profundo ya que su hardware está bien capacitado para los cálculos paralelos que exige este sistema. Durante los últimos años, la empresa ha buscado explotar esta ventaja, y el DGX-1 (cuyo coste de desarrollo ha sido de casi 1.800 millones de euros) es grosso modo un banco de procesadores de gráficos optimizados para aprendizaje profundo. Estos chips pueden procesar datos a gran velocidad (a un máximo de unos 170 teraflops, que equivale a 1.000 millones de cálculos aritméticos por segundo) y pueden compartir datos de manera más fácil.

El científico jefe de la empresa china de internet Baidu, Andrew Ng, ha podido observar con detenimiento el DGX-1, el cual planea utilizar también Baidu. Ng afirma: "Sus capacidades nos ofrecen nuevas formas de escalar nuestro proceso de entrenamiento. Esto nos permitirá emplear modelos de entrenamiento sobre conjuntos de datos más grandes, los cuales hemos descubierto que conducen al progreso de la IA".

OpenAI está involucrada en varias de las investigaciones más vanguardistas de IA. Además del aprendizaje profundo, sus investigadores están centrados en desarrollar algoritmos capaces de aprender mediante métodos de ensayo y error, un campo de investigación conocido como aprendizaje por refuerzo.

Open AI planea utilizar el aprendizaje por refuerzo para construir robots capaces de ejecutar tareas útiles en el entorno doméstico, aunque esto supone un desafío que requiere mucho tiempo (ver Por qué destinar mil millones de dólares para que un robot aprenda a barrer y fregar y El robot de limpieza necesita casas más simples).

Los investigadores de OpenAI también están explorando maneras de que los algoritmos de IA aprender de manera mucho más eficiente generando sus propios modelos, o teorías, sobre lo que significa un conjunto de datos. Un algoritmo podría aprender a jugar a diferentes juegos de ordenador si concluye que recoger monedas ayuda generalmente a aumentar la puntuación.

El director de investigación en OpenAI, Ilya Sutskever,  una eminencia en IA, considera que trabajar en esta área conduciría a largo plazo hacia algoritmos que aprender de manera más eficaz. El experto afirma: "Una vez que se consigan todos estos avances, debería ser posible desarrollar agentes que logren metas más sofisticadas pero que requieran mucha menos experiencia".

OpenAI se fundó en 2015 gracias a una donación de 1.000 millones de dólares (unos 900 millones de euros) procedentes de los vips del sector: el CEO de Tesla y SpaceX, Elon Musk, y el presidente de Y Combinator, Sam Altman. El objetivo de esta organización sin ánimo de lucro es llevar a cabo investigaciones abiertas sobre IA y asegurarse de que beneficie a la humanidad.

EL CEO de Nvidia, Jen-Hsun Huang, confiesa que la decisión de conceder el primer DGX-1 a OpenAI refleja una confianza en los objetivos de OpenAI. En una entrevista, declaró Huang: "La estrategia de Nvidia es democratizar le IA. Querríamos que esta tecnología, con todo su potencial, vaya en una dirección positiva para la sociedad".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana
  2. "La pregunta es cuánta participación humana se necesita para que algo sea arte"

    Alex Reben hace arte con (y sobre) IA. Hablé con él sobre lo que la nueva ola de modelos generativos significa para el futuro de la creatividad humana

    Detalle de un cuadro de una cabeza deformada en la que unas enormes orejas en la parte frontal de la cara tapan los ojos y una lengua brillante con textura de fresa sobresale de la boca abierta.
  3. Compensación y atribución para los creadores, la apuesta de Adobe por una IA generativa diferente

    La empresa afirma que es la prueba de que los modelos de IA de calidad no tienen por qué incluir polémicos contenidos protegidos por derechos de autor

    Imagen generada mediante IA de una mano que utiliza una cuchilla de precisión para cortar un dibujo de la realidad