.

Computación

La ley de Moore abre una brecha entre la inteligencia artificial y la computación clásica

Los chips gráficos personalizables para las operaciones del aprendizaje autómatico están permitiendo que la tecnología siga avanzando mientras el software convencional se enfrenta a procesos cada vez más complejos que sus chips no pueden asumir

  • por Tom Simonite | traducido por Teresa Woods
  • 08 Junio, 2017

El CEO de Google, Sundar Pichai, se mostró claramente emocionado cuando habló con los desarrolladores sobre unos increíbles resultados en aprendizaje automático que su labotarorio acaba de lograr. Sus investigadores habían averiguado cómo automatizar una parte del trabajo de programación del software de aprendizaje automático, algo que podría facilitar mucho el despliegue de la tecnología en situaciones e industrias nuevas.

Pero a pesar de la emoción de su CEO, había otro motivo por el que el proyecto ya era famoso entre los investigadores de inteligencia artificial (IA): el enorme consumo de recursos computacionales necesarios para competir en la vanguardia del aprendizaje automático.

Según el trabajo de los investigadores de Google, fueron necesarios hasta 800 de los potentes y caros procesadores gráficos de forma simultánea (GPU, por sus siglas en inglés). Estos dispositivos han sido cruciales para el reciente aumento de potencia del aprendizaje automático (ver Aprendizaje profundo). Los investigadores explicaron a MIT Technology Review que el proyecto había acaparado cientos de los chips durante dos semanas, lo que significa que la técnica requiere demasiados recursos como para intentar ser algo más que un mero proyecto de investigación, incluso para Google.

Un programador sin acceso a una gigante colección de GPU necesitaría tener la hucha muy llena para replicar el experimento. Alquilar 800 GPU del servicio de computación en la nube de Amazon durante tan solo una semana puede costar cerca de 110.000 euros.

Alimentar software de aprendizaje profundo con datos para que aprenda a ejecutar una tarea determinada requiere muchos más recursos que si el sistema se ejecuta después, aunque eso también sigue necesitando bastante potencia. "Ahora mismo, la potencia computacional es un cuello de botella para el aprendizaje automático", afirma el profesor adjunto de la Universidad de Stanford (EEUU) y fundador y CEO de Matroid, Reza Zadeh, cuya start-up ayuda a las empresas a utilizar software para identificar objetos como coches y personas en vídeos de vigilancia y otros vídeos.

La repentina sed de potencia para impulsar la inteligencia artificial coincide con un momento en el que la industria de la computación está intentando adaptarse a la pérdida de dos cosas de las que ha dependido durante 50 años para seguir aumentando la potencia de los chips. Una es la ley de Moore, que predijo que el número de transistores que podrían ser albergados por un chip se doblaría cada dos años. La otra es un fenómeno llamado escala de Dennard, que describe que el consumo energético de los transistores disminuye a medida que se reduce su tamaño.

Ninguna de las dos sigue vigente hoy en día. Intel ha ralentizado el ritmo al que lanza nuevas generaciones de chips con mayor densidad de transistores más pequeños (ver La supercomputación ya sufre los efectos del fin de la ley de Moore). Y a mediados de la década de 2000, las mejoras de eficiencia habituales que solían presentar los transistores a medida que encogían se desvanecieron, convirtiendo el consumo energético en un importante dolor de cabeza.

La buena noticia es que los chips gráficos han logrado desafiar estas leyes. En la reciente conferencia del fabricante líder de chips gráficos, Nvidia, su CEO, Jensen Huang, mostró un gráfico en el que se veía que el rendimiento de sus chips ha seguido acelerándose exponencialmente. Por el contrario, las mejoras de rendimiento de los procesadores de uso general, o CPU por sus siglas en inglés, se ha ralentizado.

El distinguido ingeniero de la división NExT de Microsoft Doug Burger, que trabaja en la comercialización de nuevas tecnologías, señala que se está abriendo una brecha similar entre el software convencional y el software de aprendizaje automático. El experto detalla: "Estamos empezando a observar un estancamiento [de rendimiento] del software generalizado, ha dejado de mejorar a ritmos históricos, pero la IA sigue mejorando rápidamente", afirma.

Y cree que esta tendencia se va a mantener. Los ingenieros han seguido aumentado la potencia de los GPU porque se pueden especializar para las funciones matemáticas necesarias para ejecutar tanto gráficos como el aprendizaje automático, explica.

Esta es la idea de base de un proyecto que Burger lideró en Microsoft, el cual está aumentando la potencia de un software de IA al emplear chips reconfigurables llamados FPGA. Y el concepto también es una motivación para las start-ups y hasta para los gigantes como Google que están desarrollando nuevos chips personalizados para alimentar el aprendizaje automático (ver Un superordenador y un chip, las bazas de Google para controlar el hardware de la inteligencia artificial).

A más largo plazo, harán falta cambios más drásticos en el funcionamiento de los chips para seguir aumentando la potencia de la IA. Crear chips que no añadan precisión es una opción. Los prototipos han demostrado que pueden aumentar la eficiencia de los ordenadores sin socavar la precisión de los resultados del software de aprendizaje automático (ver Un chip incapaz de hacer cálculos puede ser clave para los datos del futuro).

Los diseños de chip que imitan directamente la biología también podrían resultar claves. IBM y otras empresas han desarrollado prototipos de chips que trabajan mediante picos de corriente eléctrica, tal y como se disparan las neuronas (ver Los chips neuromórficos tendrán una inteligencia alienígena). Burger señala que incluso los animales más sencillos requieren muy poca energía para hacer cosas más complejas que las que pueden asumir los robots y el software actuales. Esto demuestra que a los ordenadores aún les queda un largo camino por recorrer.

El experto concluye: "Ten en cuenta los procesos que ejecuta una cucaracha. Hay pruebas que demuestran que hay muchas más órdenes de magnitud de rendimiento. Nos pueden quedar décadas de trabajo en el escalamiento de la IA".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Reconocer caras: un negocio que vale millones y revoluciona industrias

    Cualquier empresa china de internet que se precie emplea Face ++, una tecnología que permite acceder a oficinas, subir a trenes y obtener préstamos con una autenticación facial. Después de atrincherarse en las finanzas, el reconocimiento facial quiere expandirse por toda la economía

  2. ADN cargado con un virus informático hackea un ordenador por primera vez

    El trabajo demuestra que es posible codificar malware en un gen y utilizarlo para tomar el control de un programa de ordenador. Aunque el ataque se realizó en condiciones especiales y es poco probable que se utilice en un futuro próximo, los expertos lo consideran un nuevo tipo de amenaza

  3. "La revolución del aprendizaje profundo en la inteligencia artificial ha sucedido demasiado rápido"

    El experto en inteligencia artificial y creador de Coursera, Andrew Ng, no cree que la sociedad se vaya a quedar sin trabajo que hacer, sino que carece de las habilidades necesarias para el futuro. Su solución es formar millones de expertos en aprendizaje profundo a través de internet

    El experto en inteligencia artificial Andrew Ng