.

Computación

¿Quién ganará la batalla de los chips si el sector de la IA no para de cambiar?

1

Nvidia ha presentado su nuevo chip, basado en su enfoque de procesador gráfico. Mientras tanto, Intel, Google, Microsoft y cada vez más 'start-ups' trabajan en sus propios enfoques, con distintos pros y contras. ¿Cuál vencerá la carrera? Sólo el tiempo lo dirá

  • por Tom Simonite | traducido por Teresa Woods
  • 26 Mayo, 2017

Foto: El CEO de Nvidia, Jensen Huang, en la conferencia de la empresa celebrada en San José (EEUU).

El CEO del fabricante de chips Nvidia, Jensen Huang, no dejaba de sonreir cuando presentó el nuevo chip de la empresa para acelerar los algoritmos de inteligencia artificial. Pero por mucho que sonría, también tiene los ojos puestos en cubrirse las espaldas.

Los beneficios y el precio de las acciones de Nvidia se han disparado durante los últimos años porque los procesadores gráficos que inventó para videojuegos y diseño gráfico han permitido muchos de los últimos grandes avances del aprendizaje automático (ver Aprendizaje profundo). Pero a medida que el mundo aumenta su interés (y las inversiones) en inteligencia artificial (IA), la empresa de Huang se enfrenta a la competencia de Intel, Google y otras empresas que intentan desarrollar sus propios chips de IA.

En la conferencia anual para desarrolladores de la empresa celebrada este mes, en la que presentó el chip, el Tesla V100, Huang evitó mencionar el nombre de cualquier rival. Por ejemplo, se refirió a Google como "algunas personas". Pero lanzó algunos dardos clarísimos a las tecnologías que compiten con Nvidia, especialmente cuando hablaba de la gran oportunidad que se está abriendo para suministrar chips de IA diseñados para alimentar la computación en la nube.

Empresas de muchas industrias, como la salud y las finanzas, están invirtiendo en infraestructuras de aprendizaje automático. Los proveedores líderes de computación en la nube Google, Amazon y Microsoft confían en que muchas empresas querrán pagarles para trabajar con sus software de inteligencia artificial e invertirán mucho en hardware nuevo.

Nvidia llegó a dominar el emergente mercado de los chips de IA cuando tomó la inteligente decisión de aprovecharse de una afortunada coincidencia. Las operaciones matemáticas básicas requeridas para los gráficos informáticos son las mismas que las del enfoque de aprendizaje automático por redes neuronales. Desde 2012, los investigadores han demostrado que al aumentar la potencia de esa técnica, los procesadores gráficos incrementan muchísimo la inteligencia del software en tareas como interpretar imágenes y el discurso oral.

Nvidia ha ido modificando sus diseños de chip con prestaciones dirigidas a las redes neuronales a medida que el sector avanzaba. El nuevo chip V100 es la culminación de ese esfuerzo, e incluye un nuevo núcleo especializado para acelerar las matemáticas del aprendizaje profundo.

Huang afirmó que su potencia y eficiencia energética ayudarán a empresas y proveedores de servicios en la nube a mejorar drásticamente su capacidad de emplear la inteligencia artificial. "El rendimiento de los centros de datos se podría multiplicar por 15 veces en lugar de tener que construirlos de nuevo", señaló.

Por su parte, los nuevos rivales de Nvidia defienden que sus chips específicamente diseñados desde cero para estas tareas pueden hacer que el hardware sea más rápido y eficiente a la hora de ejecutar software de IA, frente a la tecnología de los chips gráficos, que debe ser adaptada.

Por ejemplo, este año Intel promete lanzar un chip para el aprendizaje profundo basado en una tecnología de la start-up Nervana (ver Intel mira desde fuera mientras otras compañías prosperan en la IA). La empresa también está preparando el lanzamiento de un producto dirigido a acelerar el aprendizaje profundo basado en una tecnología de Altera, la cual adquirió por unos 15.400 millones de euros. Esta empresa fabricaba chips llamados FPGA que pueden ser reconfigurados para alimentar algoritmos específicos. Por su parte, Microsoft ha invertido fuertemente en el uso de FPGA para alimentar su software de aprendizaje automático y los ha convertido en una pieza clave de su plataforma en la nube, Azure.  

Mientras tanto, el verano pasado Google anunció que ya estaba empleando un chip específico para la IA, desarrollado internamente, llamado una Unidad de Procesamiento Tensor (TPU, por sus siglas en inglés). Estos fueron los chips que consiguieron  la victoria del software AlphaGo sobre un campeón mundial del juego Go el año pasado (ver Un superordenador y un chip, las bazas de Google para controlar el hardware de la inteligencia artificial). No están a la venta, pero Google afirma que las empresas que utilizan sus servicios de computación en la nube se beneficiarán de su potencia y eficiencia energética.

Varios de los ingenieros de Google que desarrollaron el chip han abandonado la empresa desde entonces para fundar una start-up llamada Groq que está desarrollando un chip especializado para el aprendizaje automático y que dispone de 9,2 millones de euros en financiación. Otra start-up que trabaja en proyectos similares es Wave Computing, que afirma que ya deja que sus clientes prueben su hardware.

Durante la presentación, Huang subrayó que la tecnología de Nvidia alcanza un punto óptimo que otros esfuerzos no han logrado alcanzar. Los chips personalizados como el TPU de Google son poco flexibles para funcionar igual de bien con muchos tipos distintos de redes neuronales, afirmó. Esta es una importante desventaja dado lo rápido que surgen y se adoptan las nuevas ideas y enfoques de inteligencia artificial. Y también aseguró que los FPGA, como los que prefiere Microsoft y por los que está apostando Intel, consumen demasiada energía.

El CEO concluyó: "Estamos creando la plataforma más productiva para el aprendizaje profundo". Pero a medida que sus rivales vayan presentando sus nuevos productos, la seguridad de Huang podría verse puesta en entredicho.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. La cruzada para llevar internet a las zonas más remotas del planeta

    El acceso a la red de redes es deficiente en las zonas rurales de Alaska (EE.UU.). Pero en los últimos años han surgido varias empresas que pretenden desplegar satélites en la órbita baja terrestre para ofrecer conexión a los habitantes de ese estado y ampliar después su servicio a otras regiones

  2. La posibilidad de que el Planeta 9 esté en el sistema solar es del 99,8 %

    Una investigación de dos décadas detalla cómo sería y dónde debería estar este nuevo cuerpo celeste que habría pasado desapercibido frente a todos los astrónomos. Si la hipótesis es correcta, los investigadores afirman que será descubierto en la próxima década con los telescopios actuales

  3. La electrónica será más pequeña con este nanointerruptor de grafeno

    Hasta ahora nadie había sido capaz de incorporar uno en los diminutos chips de silicio actuales de forma eficiente, pero eso acaba de cambiar con esta investigación. Estas nanomáquinas de grafeno podrían lograr una miniaturización aún mayor de los dispositivos electrónicos que conocemos