.

Andrea Daquino

Computación

La IA está transformando nuestra forma de diseñar y usar ordenadores

1

La irrupción de la inteligencia artificial en la computación está alterando cómo se fabrican, se programan y usan los ordenadores, hasta que finalmente modifiquen para qué sirven. Su misión evolucionará desde la ejecución de cálculos hacia la toma de decisiones, hasta que ellos mismos sepan cuándo necesitamos ayuda

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 26 Octubre, 2021

Otoño de 2021: tiempo de calabazas, nueces y teléfonos de color melocotón. Cada año, en el momento justo, Apple, Samsung, Google y otras empresas lanzan sus últimos productos. Estos dispositivos en el calendario de la tecnología del consumidor ya no inspiran la sorpresa ni el asombro de aquellos primeros días tan emocionantes. Pero detrás de todo el diseño de márketing, está pasando algo extraordinario.

La última oferta de Google, el Pixel 6, es el primer teléfono que tiene un chip separado dedicado a la inteligencia artificial (IA) junto a su procesador estándar. Durante los últimos años, el chip que ejecuta el iPhone ha contenido lo que Apple llama el "motor neuronal", también dedicado a la inteligencia artificial. Ambos chips realizan mejor los tipos de computación para entrenar y ejecutar los modelos de aprendizaje automático en nuestros dispositivos, como la IA de nuestra cámara. Casi sin que nos demos cuenta, la IA se ha convertido en parte de nuestra vida cotidiana y está cambiando nuestra forma de pensar en la computación.

¿Qué significa eso? Bueno, los ordenadores no han cambiado mucho en 40 o 50 años. Son más pequeños y más rápidos, pero siguen siendo cajas con procesadores que ejecutan las instrucciones de los seres humanos. La IA cambia eso en al menos tres frentes: cómo se fabrican los ordenadores, cómo se programan y cómo se usan. Al final, cambiará para qué sirven.

"La base de la computación está cambiando desde las operaciones de cálculos a la toma de decisiones", afirma el director del Laboratorio de Computación Paralela de Intel, Pradeep Dubey. O, en palabras de la directora de MIT CSAIL, Daniela Rus, la IA está liberando a los ordenadores de sus cajas.

Más rápido, pero con menos velocidad

El primer cambio tiene que ver con cómo se fabrican los ordenadores y los chips que los controlan. Los beneficios de la informática tradicional se produjeron a medida que las máquinas se volvían más rápidas para realizar un cálculo tras otro. Durante décadas, el mundo se benefició de las aceleraciones de los chips que vinieron con regularidad metronómica, ya que los fabricantes de chips seguían la Ley de Moore.

Pero los modelos de aprendizaje profundo que hacen que las actuales aplicaciones de IA funcionen requieren un enfoque diferente: necesitan una gran cantidad de cálculos menos precisos, pero realizados de forma simultánea. Eso significa que se requiere un nuevo tipo de chip: capaz de mover los datos lo más rápido posible, asegurándose de estar disponible cuando y donde se necesite. Cuando el aprendizaje profundo irrumpió en escena hace aproximadamente una década, ya existían chips de ordenador especializados que eran bastante buenos en esto: se trata de las unidades de procesamiento de gráficos o GPU, diseñadas para mostrar una pantalla completa de píxeles docenas de veces por segundo.

Cualquier cosa puede convertirse en un ordenador. De hecho, la mayoría de los objetos domésticos, desde cepillos de dientes hasta interruptores de luz y timbres, ya tienen su versión inteligente.

En la actualidad, los fabricantes de chips como Intel y Arm y Nvidia, que suministraron muchas de las primeras GPU, están cambiando para crear hardware diseñado específicamente para IA. Google y Facebook también se están abriendo camino en esta industria, en una carrera por encontrar un avance de inteligencia artificial a través del hardware.

Por ejemplo, el chip del Pixel 6 es una nueva versión móvil de la unidad de procesamiento tensorial de Google, o TPU. A diferencia de los chips tradicionales, orientados a cálculos precisos y ultrarrápidos, las TPU están diseñadas para los cálculos de gran volumen y baja precisión que requieren las redes neuronales. Google lleva utilizando estos chips internamente desde 2015: procesan las fotos de las personas y las consultas de búsqueda en lenguaje natural. La filial de Google, DeepMind, los usa para entrenar sus IA.

En los últimos años, Google ha puesto las TPU a disposición de otras empresas, y estos chips, junto con otros similares que están desarrollando otras empresas, se están convirtiendo en los más populares en los centros de datos del mundo.

La IA incluso está ayudando a diseñar su propia infraestructura informática. En 2020, Google usó un algoritmo de aprendizaje reforzado (un tipo de IA que aprende cómo resolver una tarea mediante prueba y error) para diseñar una nueva TPU. La IA finalmente ideó nuevos y extraños diseños a que ningún humano se le ocurrirían, pero funcionaron. Este tipo de IA podría algún día desarrollar mejores chips y más eficientes.

Mostrar, pero no indicar

El segundo cambio se refiere a cómo se les dice a los ordenadores qué hacer. Llevamos programando los ordenadores desde hace 40 años; pero, durante los próximos 40, los entrenaremos, según el director de Microsoft Research en Reino Unido, Chris Bishop.

Tradicionalmente, para que un ordenador reconociera el habla o identificara objetos en una imagen, los programadores primero tenían que idear unas reglas para el ordenador. Con el aprendizaje automático, los programadores ya no escriben esas reglas. En cambio, crean una red neuronal que aprende esas reglas por sí misma. Se trata de una forma de pensar fundamentalmente diferente.

Los ejemplos ya son comunes: el reconocimiento de voz y la identificación de imágenes son características estándar en los teléfonos inteligentes. Otros ejemplos acapararon titulares, como cuando AlphaZero aprendió a jugar a Go mejor que las personas y cuando AlphaFold resolvió un problema de biología que las personas llevaban décadas intentando solucionar: averiguar cómo se pliegan las proteínas.

Bishop cree que los próximos grandes avances se producirán en la simulación molecular: entrenar a los ordenadores para manipular las propiedades de la materia podría crear cambios a nivel mundial en el uso de energía, en la producción de alimentos, en la fabricación y en la medicina.

Promesas como esta, que nos dejan sin aliento, se hacen a menudo. También es cierto que el aprendizaje profundo tiene un historial de sorprendernos. Dos de los mayores avances de este tipo hasta ahora (lograr que los ordenadores se comporten como si entendieran el lenguaje y reconocer lo que hay en una imagen) ya están cambiando nuestra forma de usarlos.

El ordenador sabe mejor que nadie

Durante décadas, conseguir que un ordenador hiciera algo significaba escribir un comando, o al menos hacer clic en un botón.

Las máquinas ya no necesitan un teclado ni una pantalla para interactuar con las personas. Cualquier cosa puede convertirse en un ordenador. De hecho, la mayoría de los objetos domésticos, desde cepillos de dientes hasta interruptores de luz y timbres, ya tienen su versión inteligente. Pero a medida que proliferan, vamos a querer dedicar menos tiempo a decirles qué hacer. Deberían poder resolver lo que haga falta sin que se lo digamos.

Este es el cambio de las operaciones de cálculos a la toma de decisiones que Dubey considera que define la nueva era de la computación.

Rus quiere que adoptemos el apoyo cognitivo y físico que se ofrece. Se imagina que los ordenadores nos dirán las cosas que necesitamos saber cuándo necesitemos saberlas e intervendrán si necesitamos una mano. Destaca: "Cuando era joven, una de mis [escenas] de películas favoritas de todo el mundo era El aprendiz de brujo. ¿Sabe cómo Mickey ordena a la escoba que le ayude a limpiar? No necesitaremos magia para que eso suceda".

Sabemos cómo termina esa escena. Mickey pierde el control sobre la escoba y arma un gran lío. Ahora que las máquinas interactúan con las personas y se integran en el caos del mundo exterior, todo se vuelve más incierto. Los ordenadores ya están fuera de sus cajas.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Cómo convertir el cálculo vectorial en simples diagramas tipo Feynman

    El científico revolucionó la física de partículas con sus representaciones gráficas. Ahora los matemáticos quieren hacer lo mismo para el cálculo vectorial, y parece que lo han conseguido

  2. El 'big data' puede ayudar a resolver el problema del agua en Pakistán

    La ciudad más poblada del país, Karachi, pierde miles de millones de litros diarios por una mala gestión del recurso. Ayudar a los agricultores a ahorrar el agua en los alrededores podría mejorar la producción y salvar a los ciudadanos

  3. El ciberespionaje ha aumentado tanto que ya es imposible de frenar

    La industria global de los hackers por contrato no para de crecer, tanto en catálogo de productos como en clientes y negocio generado, sin que la sociedad sea consciente de su enorme impacto negativo en el mundo. La única forma de detenerla será mediante el mercado, si empiezan a perder dinero