.

Inteligencia Artificial

Por qué la IA podría comerle la tostada a la computación cuántica

1

Los rápidos avances en la aplicación de la inteligencia artificial a las simulaciones físicas y químicas hacen que algunos se pregunten si de verdad necesitamos ordenadores cuánticos

  • por Edd Gent | traducido por
  • 12 Noviembre, 2024

Las empresas tecnológicas llevan años invirtiendo miles de millones en los ordenadores cuánticos con la esperanza de que cambien las reglas del juego en campos tan diversos como las finanzas, el descubrimiento de fármacos o la logística.

Las expectativas son especialmente altas en física y química, donde entran en juego los extraños efectos de la mecánica cuántica. En teoría, es aquí donde los ordenadores cuánticos podrían tener una enorme ventaja sobre las computadoras convencionales.

Pero mientras este campo se enfrenta a la complicada realidad del hardware cuántico, hay un aspirante que está avanzando en algunos de estos casos de uso más prometedores. La IA se está aplicando a la física fundamental, a la química y a la ciencia de los materiales de una forma que sugiere que el supuesto terreno de juego de la computación cuántica podría no ser tan seguro después de todo.

La escala y la complejidad de los sistemas cuánticos que pueden simularse con IA avanzan rápidamente, afirma Giuseppe Carleo, profesor de física computacional de la Escuela Politécnica Federal de Suiza (EPFL). El mes pasado, Carleo fue coautor de un artículo publicado en Science que demuestra que los enfoques basados en redes neuronales se están convirtiendo rápidamente en la principal técnica para modelar materiales con fuertes propiedades cuánticas. Meta también ha presentado recientemente un modelo de IA entrenado con un nuevo conjunto de datos masivos de materiales que ha saltado a la cima de una tabla de clasificación de enfoques de aprendizaje automático para el descubrimiento de materiales.

Dado el ritmo de los últimos avances, cada vez son más los investigadores que se preguntan si la IA podría resolver una parte sustancial de los problemas más interesantes de la química y la ciencia de materiales antes de que los ordenadores cuánticos a gran escala sean una realidad.

"La existencia de estos nuevos contendientes en el aprendizaje automático es un duro golpe para las aplicaciones potenciales de los ordenadores cuánticos", afirma Carleo. "En mi opinión, estas empresas descubrirán tarde o temprano que sus inversiones no están justificadas".

Problemas exponenciales

La promesa de los ordenadores cuánticos reside en su potencial para realizar ciertos cálculos mucho más rápido que los ordenadores convencionales. Para hacer realidad esta promesa se necesitarán procesadores cuánticos mucho mayores que los actuales. Los dispositivos más grandes acaban de cruzar la barrera de los mil qubits; pero, para lograr una ventaja innegable sobre los ordenadores clásicos, harán falta probablemente decenas de miles, cuando no millones. Sin embargo, una vez que se disponga de ese hardware, un puñado de algoritmos cuánticos, como el algoritmo de Shor para descifrar cifrados, tienen el potencial de resolver problemas exponencialmente más rápido que los algoritmos clásicos.

Pero, para muchos algoritmos cuánticos con aplicaciones comerciales más obvias, como la búsqueda en bases de datos, la resolución de problemas de optimización, la ventaja de la velocidad es más modesta. El año pasado, Matthias Troyer, responsable de computación cuántica de Microsoft, publicó un artículo en el que demostraba que estas ventajas teóricas desaparecen si se tiene en cuenta que el hardware cuántico funciona varios órdenes de magnitud más despacio que los chips de los ordenadores modernos. La dificultad de introducir y extraer grandes cantidades de datos clásicos de un ordenador cuántico es también una barrera importante.

Troyer y sus colegas llegaron a la conclusión de que los ordenadores cuánticos deberían centrarse en problemas de química y ciencia de materiales que requieran la simulación de sistemas en los que dominen los efectos cuánticos. En teoría, un ordenador que funcione según los mismos principios cuánticos que estos sistemas debería tener una ventaja natural. De hecho, ésta ha sido la idea impulsora de la computación cuántica desde que el célebre físico Richard Feynman la propuso por primera vez.

Las reglas de la mecánica cuántica rigen muchas cosas de enorme valor práctico y comercial, como las proteínas, los fármacos y los materiales. Sus propiedades vienen determinadas por las interacciones de sus partículas constituyentes, en particular sus electrones, y simular estas interacciones en un ordenador debería permitir predecir qué tipo de características presentará una molécula. Esto podría resultar muy valioso para descubrir, por ejemplo, nuevos medicamentos o baterías más eficientes.

Pero las reglas de la mecánica cuántica, que desafían la intuición -en particular, el fenómeno del entrelazamiento, que permite que los estados cuánticos de partículas distantes queden intrínsecamente vinculados-, pueden hacer que estas interacciones sean increíblemente complejas. Para rastrearlas con precisión se requieren complicadas operaciones matemáticas que se hacen exponencialmente más difíciles cuantas más partículas intervienen. Esto puede hacer que la simulación de grandes sistemas cuánticos sea inabordable en máquinas clásicas.

Aquí es donde podrían brillar los ordenadores cuánticos. Como también funcionan según principios cuánticos, pueden representar estados cuánticos de forma mucho más eficiente que las máquinas clásicas. También podrían aprovechar los efectos cuánticos para acelerar sus cálculos.

Pero no todos los sistemas cuánticos son iguales. Su complejidad viene determinada por el grado en que sus partículas interactúan, o se correlacionan, entre sí. En los sistemas en los que estas interacciones son fuertes, el seguimiento de todas estas relaciones puede disparar rápidamente el número de cálculos necesarios para modelizar el sistema. Pero en la mayoría de los sistemas de interés práctico para químicos y científicos de materiales, la correlación es débil, afirma Carleo. Eso significa que sus partículas no afectan al comportamiento de las demás de forma significativa, lo que hace que los sistemas sean mucho más sencillos de modelizar.

El resultado, según Carleo, es que es poco probable que los ordenadores cuánticos aporten alguna ventaja a la mayoría de los problemas de la química y la ciencia de materiales. Ya existen herramientas clásicas capaces de modelizar con precisión sistemas débilmente correlacionados, entre las que destaca la teoría del funcional de la densidad (DFT). La idea que subyace a la DFT es que todo lo que se necesita para comprender las propiedades clave de un sistema es su densidad electrónica, una medida de cómo se distribuyen sus electrones en el espacio. Esto simplifica mucho el cálculo, pero puede proporcionar resultados precisos en sistemas débilmente correlacionados.

Simular grandes sistemas con estos métodos requiere una potencia de cálculo considerable. Pero en los últimos años se ha producido una explosión de la investigación que utiliza la DFT para generar datos sobre sustancias químicas, biomoléculas y materiales, datos que pueden utilizarse para entrenar redes neuronales. Estos modelos de inteligencia artificial aprenden patrones en los datos que les permiten predecir qué propiedades es probable que tenga una determinada estructura química, pero son órdenes de magnitud más baratos de ejecutar que los cálculos DFT convencionales.

Según Alexandre Tkatchenko, catedrático de Física de la Universidad de Luxemburgo, esto ha ampliado drásticamente el tamaño de los sistemas que pueden modelizarse —hasta 100.000 átomos a la vez— y la duración de las simulaciones. "Es maravilloso. Se puede hacer la mayor parte de la química", afirma.

Olexandr Isayev, catedrático de química de la Universidad Carnegie Mellon, afirma que estas técnicas ya se aplican ampliamente en empresas de química y ciencias de la vida. Y para los investigadores, problemas que antes estaban fuera de su alcance, como la optimización de reacciones químicas, el desarrollo de nuevos materiales para baterías y la comprensión de la unión de proteínas, se están volviendo por fin abordables.

Como ocurre con la mayoría de las aplicaciones de IA, el mayor cuello de botella son los datos, afirma Isayev. El conjunto de datos sobre materiales publicado recientemente por Meta estaba formado por cálculos DFT de 118 millones de moléculas. Un modelo entrenado con estos datos alcanzó un rendimiento puntero, pero para crear el material de entrenamiento se necesitaron ingentes recursos informáticos, muy por encima de lo que está al alcance de la mayoría de los equipos de investigación. Esto significa que para cumplir todas las promesas de este método se necesitará una gran inversión.

Sin embargo, el modelado de un sistema débilmente correlacionado mediante DFT no es un problema de escala exponencial. Esto sugiere que, con más datos y recursos informáticos, los enfoques clásicos basados en IA podrían simular incluso los mayores de estos sistemas, afirma Tkatchenko. Dado que los ordenadores cuánticos lo suficientemente potentes como para competir con ellos están aún a décadas de distancia, añade, la trayectoria actual de la IA sugiere que podría alcanzar hitos importantes, como simular con precisión cómo se unen los fármacos a una proteína, mucho antes.

Correlaciones fuertes

Cuando se trata de simular sistemas cuánticos fuertemente correlacionados -en los que las partículas interactúan mucho-, los métodos como la DFT se agotan rápidamente. Aunque más exóticos, estos sistemas incluyen materiales con capacidades potencialmente transformadoras, como la superconductividad a alta temperatura o la detección ultraprecisa. Pero incluso aquí, la IA está avanzando a pasos agigantados.

En 2017, Carleo, de la EPFL, y Troyer, de Microsoft, publicaron un artículo fundamental en Science en el que mostraban que las redes neuronales podían modelar sistemas cuánticos fuertemente correlacionados. El enfoque no aprende de los datos en el sentido clásico. En cambio, según Carleo, es similar al modelo AlphaZero de DeepMind, que dominaba los juegos de Go, ajedrez y shogi utilizando nada más que las reglas de cada juego y la capacidad de jugar por sí mismo.

En este caso, las reglas del juego las proporciona la ecuación de Schrödinger, que puede describir con precisión el estado cuántico de un sistema, o función de onda. El modelo juega contra sí mismo una configuración determinada y midiendo después el nivel de energía del sistema. El objetivo es alcanzar la configuración de energía más baja (conocida como estado fundamental), que determina las propiedades del sistema. El modelo repite este proceso hasta que los niveles de energía dejan de caer, lo que indica que se ha alcanzado el estado fundamental o algo cercano a él.

El poder de estos modelos reside en su capacidad para comprimir información, afirma Carleo. "La función de onda es un objeto matemático muy complicado", afirma. "Lo que han demostrado varios artículos ahora es que [la red neuronal] es capaz de capturar la complejidad de este objeto de una manera que puede ser manejada por una máquina clásica".

Desde el artículo de 2017, el enfoque se ha extendido a una amplia gama de sistemas fuertemente correlacionados, dice Carleo, y los resultados han sido impresionantes. El artículo de Science que publicó con sus colegas el mes pasado puso a prueba las principales técnicas de simulación clásica en una variedad de difíciles problemas de simulación cuántica, con el objetivo de crear un punto de referencia para juzgar los avances en los enfoques clásicos y cuánticos.

Carleo afirma que las técnicas basadas en redes neuronales son ahora el mejor enfoque para simular muchos de los sistemas cuánticos más complejos que probaron. "El aprendizaje automático está tomando la delantera en muchos de estos problemas", afirma.

Estas técnicas están llamando la atención de algunos grandes de la industria tecnológica. En agosto, investigadores de DeepMind demostraron en un artículo en Science que podían modelar con precisión estados excitados en sistemas cuánticos, lo que algún día podría ayudar a predecir el comportamiento de cosas como células solares, sensores y láseres. Los científicos de Microsoft Research también han desarrollado un paquete de software de código abierto para ayudar a más investigadores a utilizar las redes neuronales para la simulación.

Una de las principales ventajas de este método es que aprovecha las enormes inversiones en software y hardware de IA, afirma Filippo Vicentini, profesor de IA y física de la materia condensada en la École Polytechnique de Francia, que también es coautor del artículo de evaluación comparativa de Science: "Ser capaces de aprovechar este tipo de avances tecnológicos nos da una enorme ventaja".

Hay una advertencia: dado que los estados básicos se encuentran efectivamente mediante ensayo y error en lugar de cálculos explícitos, son sólo aproximaciones. Pero también por eso el método podría suponer un avance en lo que hasta ahora parecía un problema insoluble, afirma Juan Carrasquilla, investigador de la ETH de Zúrich y otro de los coautores del artículo de evaluación comparativa de Science.

Si se quiere hacer un seguimiento preciso de todas las interacciones de un sistema fuertemente correlacionado, el número de cálculos necesarios aumenta exponencialmente con el tamaño del sistema. Pero si uno se contenta con una respuesta lo suficientemente buena, hay muchas posibilidades de tomar atajos.

"Quizá no haya esperanza de capturarlo exactamente", dice Carrasquilla. "Pero hay esperanza de capturar suficiente información para captar todos los aspectos que preocupan a los físicos. Y si lo hacemos, es básicamente indistinguible de una solución verdadera".

Y aunque los sistemas fuertemente correlacionados suelen ser demasiado difíciles de simular de forma clásica, hay casos notables en los que no es así. Eso incluye algunos sistemas que son relevantes para modelar superconductores de alta temperatura, según un artículo de 2023 en Nature Communications.

"Debido a la complejidad exponencial, siempre hay problemas para los que no se puede encontrar un atajo", afirma Frank Noe, director de investigación de Microsoft Research, que ha dirigido gran parte del trabajo de la empresa en este campo. "Pero creo que el número de sistemas para los que no se puede encontrar un buen atajo se reducirá mucho".

No hay soluciones mágicas

Sin embargo, Stefanie Czischek, profesora adjunta de Física en la Universidad de Ottawa, afirma que puede ser difícil predecir qué problemas pueden resolver las redes neuronales. En algunos sistemas complejos funcionan increíblemente bien, pero en otros aparentemente sencillos los costes de cálculo se disparan de forma inesperada. "No conocemos realmente sus limitaciones", afirma. "Nadie sabe aún realmente cuáles son las condiciones que dificultan la representación de sistemas mediante estas redes neuronales".

Mientras tanto, también se han producido avances significativos en otras técnicas clásicas de simulación cuántica, dice Antoine Georges, director del Centro de Física Cuántica Computacional del Flatiron Institute de Nueva York, que también contribuyó al reciente artículo de evaluación comparativa de Science. "Todos tienen éxito por derecho propio y además son muy complementarios", afirma. "Así que no creo que estos métodos de aprendizaje automático vayan a acabar por completo con todos los demás".

Los ordenadores cuánticos también tendrán su nicho, dice Martin Roetteler, director senior de soluciones cuánticas de IonQ, que está desarrollando ordenadores cuánticos construidos a partir de iones atrapados. Aunque está de acuerdo en que los enfoques clásicos probablemente serán suficientes para simular sistemas débilmente correlacionados, confía en que algunos sistemas grandes y fuertemente correlacionados quedarán fuera de su alcance. "El exponencial te va a morder", afirma. "Hay casos con sistemas fuertemente correlacionados que no podemos tratar de forma clásica. Estoy firmemente convencido de que ése es el caso".

Por el contrario, afirma, un futuro ordenador cuántico tolerante a fallos con muchos más qubits que los dispositivos actuales podrá simular tales sistemas. Esto podría ayudar a encontrar nuevos catalizadores o mejorar la comprensión de los procesos metabólicos en el organismo, un área de interés para la industria farmacéutica.

Es probable que las redes neuronales amplíen el abanico de problemas que pueden resolverse, afirma Jay Gambetta, que dirige los esfuerzos de IBM en computación cuántica, pero no está convencido de que vayan a resolver los retos más difíciles que interesan a las empresas.

"Por eso, muchas empresas que tienen como requisito esencial la química siguen investigando la cuántica, porque saben exactamente dónde se rompen estos métodos de aproximación", afirma.

Gambetta también rechaza la idea de que las tecnologías sean rivales. En su opinión, el futuro de la informática pasará probablemente por un híbrido de ambos enfoques, con subrutinas cuánticas y clásicas trabajando juntas para resolver problemas. "No creo que compitan. Creo que en realidad se complementan", afirma.

Pero Scott Aaronson, que dirige el Centro de Información Cuántica de la Universidad de Texas, afirma que los métodos de aprendizaje automático compiten directamente con los ordenadores cuánticos en áreas como la química cuántica y la física de la materia condensada. Predice que una combinación de aprendizaje automático y simulaciones cuánticas superará a los enfoques puramente clásicos en muchos casos, pero eso no quedará claro hasta que se disponga de ordenadores cuánticos más grandes y fiables.

"Desde el principio, he considerado la computación cuántica ante todo como una búsqueda científica, y las aplicaciones industriales como la guinda del pastel", afirma. "Así que, con que la simulación cuántica supere al aprendizaje automático clásico en algunas pocas ocasiones, no me sentiré tan abatido como algunos de mis colegas".

Un área en la que los ordenadores cuánticos parecen tener una clara ventaja es en la simulación de cómo evolucionan con el tiempo los sistemas cuánticos complejos, afirma Carleo, de la EPFL. Esto podría aportar información muy valiosa a científicos de campos como la mecánica estadística y la física de altas energías, pero parece poco probable que se traduzca en usos prácticos a corto plazo. "Se trata de aplicaciones de nicho que, en mi opinión, no justifican las inversiones masivas y el bombo masivo", añade Carleo.

No obstante, los expertos con los que ha hablado MIT Technology Review afirman que la falta de aplicaciones comerciales no es motivo para dejar de perseguir la computación cuántica, que podría dar lugar a avances científicos fundamentales a largo plazo.

"La ciencia es como un conjunto de cajas anidadas: resuelves un problema y encuentras otros cinco", afirma Vicentini. "La complejidad de las cosas que estudiamos aumentará con el tiempo, así que siempre necesitaremos herramientas más potentes".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El contrato de OpenAI con la empresa de defensa Anduril certifica su giro militarista

    La asociación con Anduril desplegará la IA en el campo de batalla. Representa un cambio de la posición de la empresa en solo un año.

  2. Google desvela su Proyecto Astra, la apuesta para imponerse en los agentes de IA

    Google ha lanzado una serie de nuevos productos entre los que destaca el Proyecto Astra, un asistente universal todavía en fase de desarrollo capaz de enfocar con la cámara un objeto y ofrecer respuestas en tiempo real basadas en lo que captura

    Google desvela su Proyecto Astra
  3. EE UU se prepara para enfrentarse a los 'deepfakes'

    El Departamento de Defensa de EE UU ha firmado un acuerdo con Hive AI, start-up de inteligencia artificial, para mejorar el desarrollo de tecnología que detecte imágenes falsas generadas con IA

    EE UU se prepara para enfrentarse a los 'deepfakes'