.

Conjunto de datos de manuscritos Mnist. La red neuronal puede reconocer estos caracteres escritos a mano de manera muy eficiente

Computación

IBM logra fabricar una red neuronal ultraeficiente en silicio

1

Las pruebas preliminares demuestran que el dispositivo consume 100 veces menos energía en completar el mismo proceso que sus homólogos basados en software. Aunque aún es muy rudimentario, el avance podría impulsar los desarrollos de inteligencia artificial

  • por Will Knight | traducido por Mariana Díaz
  • 15 Junio, 2018

Las redes neuronales son la joya de la corona en el auge de la inteligencia artificial (IA). Después de atiborrarse de datos, son capaces de hacer cosas como transcribir un discurso a texto o describir imágenes con una precisión casi perfecta (ver Las 10 tecnologías emergentes más rompedoras 2013: Aprendizaje profundo).

Lo que más llama la atención es que las redes neuronales, que intentan simular la estructura del cerebro humano, normalmente se construyen en software en lugar de hardware, y el software se ejecuta en chips de ordenador convencionales. Eso ralentiza las cosas.

Pero IBM acaba de demostrar que construir los elementos clave de una red neuronal directamente sobre el silicio logra que el sistema sea 100 veces más eficiente. En los próximos años, los chips construidos de esta manera podrían acelerar el aprendizaje automático.

Al igual que las redes neuronales en forma de código informático, el chip físico de IBM imita las sinapsis que conectan las neuronas individuales en el cerebro. La fuerza de estas conexiones sinápticas debe ajustarse para que la red aprenda. En un cerebro vivo, esto sucede en forma de conexiones que crecen o se marchitan con el tiempo. Eso es fácil de reproducir en el software, pero hasta ahora, resultaba increíblemente difícil replicarlo en formato físico.

Los investigadores de IBM han demostrado las sinapsis microelectrónicas en un trabajo de investigación publicado en la revista Nature. Su enfoque se inspira en la neurociencia, ya que usa dos tipos de sinapsis: las de corto plazo para el cálculo y las de largo plazo para la memoria. Este método "aborda algunos problemas clave", especialmente la baja precisión, que han obstaculizado los esfuerzos previos para construir redes neuronales artificiales en silicio, señala el investigador del Instituto Nacional de Ciencia y Tecnología (India) Michael Schneider, que está investigando hardware de ordenador inspirado en la neurología.

Los investigadores probaron su red neuronal física mediante dos tareas simples de reconocimiento de imágenes: la escritura a mano y la clasificación de imágenes en color. Las pruebas revelaron que el sistema era tan preciso como una red neuronal profunda basada en software a pesar de que consumía solo un 1 % de energía.

El descubrimiento no solo es importante para la IA. Si se amplía a la producción comercial, podría reivindicar una de las grandes apuestas de IBM. Aunque la compañía ya no vende chips de ordenador, lleva tiempo invirtiendo en proyectos dirigidos a reinventar el hardware del ordenador. Su esperanza es que una nueva generación de componentes microelectrónicos ayuden a impulsar los próximos grandes avances de la humanidad. Este avance podría ser un primer paso para conseguirlo, ya que aumentaría la eficacia del aprendizaje automático y lograría que la tecnología fuera más fácil de incorporar en dispositivos pequeños como smartphones.

"Aumentar la eficiencia energética y la velocidad de entrenamiento en capas completamente conectadas por un factor de 100 es un avance por el que merece la pena esforzarse más", afirma Schneider. Sin embargo, no todos están tan seguros. El investigador de la Universidad de Stanford (EE. UU.) Kwabena Boahen, que investiga arquitecturas computarizadas, dice que el trabajo le recuerda al bombo que hubo alrededor de los "memristores". Esta especie de transistor sintonizable parecido a una sinapsis lleva subdesarrollado desde hace más de una década.

El diseño de los chips de IBM todavía es bastante burdo. Consta de cinco transistores y otros tres componentes en lugar del simple transistor que tendría un chip normal. Además, algunos aspectos del sistema solo se han probado mediante simulación, una técnica común para validar diseños de microchips. IBM todavía tiene que construir y probar un chip completo. Sin embargo, el trabajo puede ser un paso importante, inspirado biológicamente, hacia un ordenador con la lógica de una IA grabada en su núcleo.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. El cerebro procesa las palabras que más usa de forma distinta al resto

    Los patrones de frecuencia de 50 idiomas demuestran que el lenguaje depende de un proceso dual. Los términos más frecuentes se procesan instintivamente mientras que los menos usados requieren un pensamiento racional. El hallazgo podría ser clave para el procesamiento del lenguaje natural

  2. Aislar el protocolo de consenso podría revolucionar 'blockchain'

    Las grandes debilidades de los contratos inteligentes en cadenas de bloques, como su falta de confidencialidad y sus limitaciones de ejecución, podrían solucionarse con este enfoque de la 'start-up' Oasis Lab, cuya idea ya ha recaudado casi 40 millones de euros en inversiones

  3. La computación a exaescala busca máquinas pero también aplicaciones

    Mientras los ordenadores cuánticos funcionales siguen intentando despegar, los países compiten en el terreno de la supercomputación. Los primeros superordenadores a exaescala podrían llegar en 2021, pero también hacen falta programas especializados para que sean realmente útiles