.

Computación

¿Quién ganará la batalla de los chips si el sector de la IA no para de cambiar?

1

Nvidia ha presentado su nuevo chip, basado en su enfoque de procesador gráfico. Mientras tanto, Intel, Google, Microsoft y cada vez más 'start-ups' trabajan en sus propios enfoques, con distintos pros y contras. ¿Cuál vencerá la carrera? Sólo el tiempo lo dirá

  • por Tom Simonite | traducido por Teresa Woods
  • 26 Mayo, 2017

Foto: El CEO de Nvidia, Jensen Huang, en la conferencia de la empresa celebrada en San José (EEUU).

El CEO del fabricante de chips Nvidia, Jensen Huang, no dejaba de sonreir cuando presentó el nuevo chip de la empresa para acelerar los algoritmos de inteligencia artificial. Pero por mucho que sonría, también tiene los ojos puestos en cubrirse las espaldas.

Los beneficios y el precio de las acciones de Nvidia se han disparado durante los últimos años porque los procesadores gráficos que inventó para videojuegos y diseño gráfico han permitido muchos de los últimos grandes avances del aprendizaje automático (ver Aprendizaje profundo). Pero a medida que el mundo aumenta su interés (y las inversiones) en inteligencia artificial (IA), la empresa de Huang se enfrenta a la competencia de Intel, Google y otras empresas que intentan desarrollar sus propios chips de IA.

En la conferencia anual para desarrolladores de la empresa celebrada este mes, en la que presentó el chip, el Tesla V100, Huang evitó mencionar el nombre de cualquier rival. Por ejemplo, se refirió a Google como "algunas personas". Pero lanzó algunos dardos clarísimos a las tecnologías que compiten con Nvidia, especialmente cuando hablaba de la gran oportunidad que se está abriendo para suministrar chips de IA diseñados para alimentar la computación en la nube.

Empresas de muchas industrias, como la salud y las finanzas, están invirtiendo en infraestructuras de aprendizaje automático. Los proveedores líderes de computación en la nube Google, Amazon y Microsoft confían en que muchas empresas querrán pagarles para trabajar con sus software de inteligencia artificial e invertirán mucho en hardware nuevo.

Nvidia llegó a dominar el emergente mercado de los chips de IA cuando tomó la inteligente decisión de aprovecharse de una afortunada coincidencia. Las operaciones matemáticas básicas requeridas para los gráficos informáticos son las mismas que las del enfoque de aprendizaje automático por redes neuronales. Desde 2012, los investigadores han demostrado que al aumentar la potencia de esa técnica, los procesadores gráficos incrementan muchísimo la inteligencia del software en tareas como interpretar imágenes y el discurso oral.

Nvidia ha ido modificando sus diseños de chip con prestaciones dirigidas a las redes neuronales a medida que el sector avanzaba. El nuevo chip V100 es la culminación de ese esfuerzo, e incluye un nuevo núcleo especializado para acelerar las matemáticas del aprendizaje profundo.

Huang afirmó que su potencia y eficiencia energética ayudarán a empresas y proveedores de servicios en la nube a mejorar drásticamente su capacidad de emplear la inteligencia artificial. "El rendimiento de los centros de datos se podría multiplicar por 15 veces en lugar de tener que construirlos de nuevo", señaló.

Por su parte, los nuevos rivales de Nvidia defienden que sus chips específicamente diseñados desde cero para estas tareas pueden hacer que el hardware sea más rápido y eficiente a la hora de ejecutar software de IA, frente a la tecnología de los chips gráficos, que debe ser adaptada.

Por ejemplo, este año Intel promete lanzar un chip para el aprendizaje profundo basado en una tecnología de la start-up Nervana (ver Intel mira desde fuera mientras otras compañías prosperan en la IA). La empresa también está preparando el lanzamiento de un producto dirigido a acelerar el aprendizaje profundo basado en una tecnología de Altera, la cual adquirió por unos 15.400 millones de euros. Esta empresa fabricaba chips llamados FPGA que pueden ser reconfigurados para alimentar algoritmos específicos. Por su parte, Microsoft ha invertido fuertemente en el uso de FPGA para alimentar su software de aprendizaje automático y los ha convertido en una pieza clave de su plataforma en la nube, Azure.  

Mientras tanto, el verano pasado Google anunció que ya estaba empleando un chip específico para la IA, desarrollado internamente, llamado una Unidad de Procesamiento Tensor (TPU, por sus siglas en inglés). Estos fueron los chips que consiguieron  la victoria del software AlphaGo sobre un campeón mundial del juego Go el año pasado (ver Un superordenador y un chip, las bazas de Google para controlar el hardware de la inteligencia artificial). No están a la venta, pero Google afirma que las empresas que utilizan sus servicios de computación en la nube se beneficiarán de su potencia y eficiencia energética.

Varios de los ingenieros de Google que desarrollaron el chip han abandonado la empresa desde entonces para fundar una start-up llamada Groq que está desarrollando un chip especializado para el aprendizaje automático y que dispone de 9,2 millones de euros en financiación. Otra start-up que trabaja en proyectos similares es Wave Computing, que afirma que ya deja que sus clientes prueben su hardware.

Durante la presentación, Huang subrayó que la tecnología de Nvidia alcanza un punto óptimo que otros esfuerzos no han logrado alcanzar. Los chips personalizados como el TPU de Google son poco flexibles para funcionar igual de bien con muchos tipos distintos de redes neuronales, afirmó. Esta es una importante desventaja dado lo rápido que surgen y se adoptan las nuevas ideas y enfoques de inteligencia artificial. Y también aseguró que los FPGA, como los que prefiere Microsoft y por los que está apostando Intel, consumen demasiada energía.

El CEO concluyó: "Estamos creando la plataforma más productiva para el aprendizaje profundo". Pero a medida que sus rivales vayan presentando sus nuevos productos, la seguridad de Huang podría verse puesta en entredicho.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. EE. UU. rechaza a Huawei pero Reino Unido le pide ayuda con el 5G

    Ambas potencias han adoptado una posición contraria en su relación con el gigante tecnológico chino. Mientras que Google acaba de anunciar que no licenciará Android en su móviles, Reino Unido ha pedido a la empresa que le suministre materiales "no esenciales" para su futura red 5G

  2. IA + 'blockchain' = un 5G más eficiente y potente

    Esta ecuación es la apuesta de EE. UU. para liderar las redes inalámbricas de próxima generación las redes inalámbricas de próxima generación. La inteligencia artificial hará que todo el proceso sea más eficiente y las cadenas de bloques ayudarán a controlar quién tiene acceso a qué 

  3. Una nueva cámara logra tomar fotografías a 45 kilómetros de distancia

    La técnica utiliza LIDAR y fotorreceptores de un único fotón para producir imágenes en 3D a unas distancias imposibles para cualquier otro sistema previo. Incluso puede atravesar el esmog de una ciudad, como puede apreciarse en la imagen superior