.

Yaopai

Computación

Un truco para que la IA consuma menos con los mismos datos

1

La poda sináptica aligera los algoritmos al eliminar las neuronas y las conexiones que menos contribuyen a conseguir resultados. De momento, parece la única vía para solucionar el problema de la enorme potencia computacional que requieren las técnicas de aprendizaje automático actuales

  • por Yiting Sun | traducido por Marta del Amo
  • 06 Febrero, 2018

En enero, Google lanzó llamado Cloud AutoML, un nuevo servicio en la nube que permite al usuario automatizar algunos aspectos complicados del diseño de software de aprendizaje automático (ver Construya una inteligencia artificial a medida con lo nuevo de Google). Mientras trabajaban en este proyecto, los investigadores de la compañía llegaron a tener que utilizar hasta 800 tarjetas gráficas de forma simultánea para entrenar sus poderosos algoritmos (ver La ley de Moore abre una brecha entre la inteligencia artificial y la computación clásica).

A diferencia de los humanos, que solo necesitan un par de ejemplos para aprender a reconocer una taza de café, las redes neuronales de la inteligencia artificial (IA) necesitan  ver decenas de miles de ejemplos para aprender a identificar un objeto. Si tiene en cuenta que cada objeto aprendido por una red neuronal requiere el mismo proceso, empezará a entender por qué el software de IA requiere tanta potencia computacional.

Si los investigadores fueran capaces de diseñar redes neuronales que pudieran ser entrenadas con solo unos pocos ejemplos, "cambiarían todo el paradigma", afirmó el vicepresidente de ingeniería de Qualcomm, Charles Bergan, al público de la conferencia EmTech de MIT Technology Review celebrada en China la semana pasada (ver Una máquina de Google logra reconocer objetos que solo ha visto una vez).

Si las redes neuronales llegaran a ser capaces de dominar el "aprendizaje único", dijo Bergan, el engorroso proceso de alimentar algoritmos con grandes cantidades de datos se volvería obsoleto. Esto podría tener serias consecuencias para la industria del hardware, ya que tanto los gigantes tecnológicos como las start-ups del sector se están centrando en desarrollar procesadores más potentes para ejecutar los algoritmos de inteligencia artificial que tantos datos requieren actualmente (ver La nueva carrera de los chips de silicio se libra en el cuadrilátero de la inteligencia artificial).

Dominar el aprendizaje único también permitiría que el aprendizaje automático fuera mucho más eficiente. Aunque este tipo de redes neuronales aún no son posibles, ya hay varias investigaciones en curso que intentan reducir los algoritmos sin perder precisión, según explicó al público el científico en jefe de Nvidia, Bill Dally.

Los investigadores de Nvidia se basan en un proceso llamado poda sináptica que consiste en hacer que una red neuronal sea más pequeña y más eficiente de ejecutar. Para ello, se eliminan las neuronas artificiales y las conexiones más ineficientes, es decir las que no contribuyen directamente al resultado. "Hay formas de entrenamiento que pueden reducir la complejidad del aprendizaje basado en grandes cantidades de datos", concluyó Dally.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Adiós censos demográficos, hola Google Street View

    La enorme cantidad de datos que contienen sus imágenes las convierten un registro visual de la sociedad del siglo XXI capaz de ofrecer información muy útil. Una investigación ya se ha aprovechado del servicio para analizar cambios en los patrones de transporte y movilidad

  2. El silicio vuelve meterse en la carrera de los ordenadores cuánticos

    Los materiales superconductores son los más populares a la hora de fabricar cúbits. Pero dos nuevas investigaciones en 'Nature' demuestran que los cúbits basados en silicio todavía pueden dominar el sector gracias a su capacidad de ofrecer mayor potencia computacional

  3. El primer ordenador óptico realmente útil podría llegar en verano

    El chip láser de Optalysys hace los mismos cálculos que uno de los mejores procesadores de Nvidia, pero 10 veces más rápido y solo consume un 25% de su energía. Su principal uso será buscar pequeñas similitudes en enormes regiones distintas de ADN