.

Yaopai

Computación

Un truco para que la IA consuma menos con los mismos datos

1

La poda sináptica aligera los algoritmos al eliminar las neuronas y las conexiones que menos contribuyen a conseguir resultados. De momento, parece la única vía para solucionar el problema de la enorme potencia computacional que requieren las técnicas de aprendizaje automático actuales

  • por Yiting Sun | traducido por Marta del Amo
  • 06 Febrero, 2018

En enero, Google lanzó llamado Cloud AutoML, un nuevo servicio en la nube que permite al usuario automatizar algunos aspectos complicados del diseño de software de aprendizaje automático (ver Construya una inteligencia artificial a medida con lo nuevo de Google). Mientras trabajaban en este proyecto, los investigadores de la compañía llegaron a tener que utilizar hasta 800 tarjetas gráficas de forma simultánea para entrenar sus poderosos algoritmos (ver La ley de Moore abre una brecha entre la inteligencia artificial y la computación clásica).

A diferencia de los humanos, que solo necesitan un par de ejemplos para aprender a reconocer una taza de café, las redes neuronales de la inteligencia artificial (IA) necesitan  ver decenas de miles de ejemplos para aprender a identificar un objeto. Si tiene en cuenta que cada objeto aprendido por una red neuronal requiere el mismo proceso, empezará a entender por qué el software de IA requiere tanta potencia computacional.

Si los investigadores fueran capaces de diseñar redes neuronales que pudieran ser entrenadas con solo unos pocos ejemplos, "cambiarían todo el paradigma", afirmó el vicepresidente de ingeniería de Qualcomm, Charles Bergan, al público de la conferencia EmTech de MIT Technology Review celebrada en China la semana pasada (ver Una máquina de Google logra reconocer objetos que solo ha visto una vez).

Si las redes neuronales llegaran a ser capaces de dominar el "aprendizaje único", dijo Bergan, el engorroso proceso de alimentar algoritmos con grandes cantidades de datos se volvería obsoleto. Esto podría tener serias consecuencias para la industria del hardware, ya que tanto los gigantes tecnológicos como las start-ups del sector se están centrando en desarrollar procesadores más potentes para ejecutar los algoritmos de inteligencia artificial que tantos datos requieren actualmente (ver La nueva carrera de los chips de silicio se libra en el cuadrilátero de la inteligencia artificial).

Dominar el aprendizaje único también permitiría que el aprendizaje automático fuera mucho más eficiente. Aunque este tipo de redes neuronales aún no son posibles, ya hay varias investigaciones en curso que intentan reducir los algoritmos sin perder precisión, según explicó al público el científico en jefe de Nvidia, Bill Dally.

Los investigadores de Nvidia se basan en un proceso llamado poda sináptica que consiste en hacer que una red neuronal sea más pequeña y más eficiente de ejecutar. Para ello, se eliminan las neuronas artificiales y las conexiones más ineficientes, es decir las que no contribuyen directamente al resultado. "Hay formas de entrenamiento que pueden reducir la complejidad del aprendizaje basado en grandes cantidades de datos", concluyó Dally.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Cómo la soberanía digital amenaza el avance y las ventajas de la nube

    Las iniciativas de distintos países para establecer reglas propias para los datos nacionales por parte de proveedores internacionales de computación en la nube hará que el acceso a la tecnología sea cada vez más caro y complicado y concentrará sus beneficios en un puñado de grandes empresas capaces de afrontar los cambios

  2. Casi 20.000 empresas y gobiernos, víctimas de un hackeo ruso masivo

    Gracias a un trabajo "inteligente y estratégico", los ciberdelincuentes colocaron una puerta trasera en el software de SolarWinds y la usaron durante meses sin ser detectados. Entre las víctimas del ciberataque destacan los departamentos del Tesoro, de Comercio y de Seguridad nacional de EE. UU.

  3. La radiación cósmica destruye los cúbits superconductores en milisegundos

    Los componentes básicos de la computación cuántica son tan sensibles que, incluso a niveles bajos, estos rayos provocan su decoherencia. Aunque el hallazgo podría contribuir a la búsqueda de materia oscura, obligará a revestir los ordenadores cuánticos de hormigón o a instalarlos bajo tierra