.

Darío Gil, Vicepresidente Senior y Director de Investigación de IBM. Créditos: IBM.

Tecnología y Sociedad

"El término 'inteligencia artificial' es un tanto desafortunado"

1

Darío Gil, vicepresidente de IBM y director de IBM Research, explica a 'MIT Technology Review en español' los próximos retos en IA, computación cuántica y nube híbrida

  • por José Antonio Luna | traducido por
  • 20 Julio, 2023

Darío Gil (1975), nacido en Murcia, lidera una de las organizaciones de investigación industrial más importante del mundo: IBM Research. Su primer laboratorio abrió en 1945 y, desde entonces, ha desempeñado un importante papel en algunos de los avances más significativos de la computación, como la creación del ordenador personal o el disco duro. A lo largo de esta trayectoria, sus investigadores han conseguido seis premios Nobel, seis premios Turing y han registrado más de 150.000 patentes. El centro ha estado presente prácticamente desde el inicio de la informática, pero también marca los pasos de su futuro. Porque, como señala el también vicepresidente global de IBM en su conferencia del evento de la compañía Think Madrid, "es el momento más emocionante de la computación desde la década de 1940".

Para Gil, la tecnología avanza gracias a los servicios híbridos en la nube, la computación cuántica o los modelos fundacionales, grandes sistemas de inteligencia artificial que se han popularizado tras la irrupción de ChatGPT. Estas herramientas disruptivas no solo impulsan cambios en los modelos productivos de las empresas, sino que tienen potencial para transformar la sociedad. No obstante, aún queda camino por recorrer. Antes se necesitan abordar varias incógnitas, como la regulación o la ciberseguridad, que deben responderse para dar forma el devenir de estas tecnologías.

¿Por qué dice que estamos en el momento más emocionante de la computación desde la década de 1940?

Porque estamos reformulando teorías de la información procedente de la década de 1940, cuando Shannon, Turing y los demás conceptualizaron lo que era la computación. Dotaron de significado a la informática y ahora estamos reinterpretando esa idea.

Durante muchas décadas la arquitectura se ha guiado esencialmente por la ley de Moore. Estaba basada unidades CPU integradas en diferentes entornos de computación, como el PC, móviles u otros dispositivos. Sin embargo, en realidad es la misma historia ejecutada durante muchas décadas. La situación ahora ha cambiado: han aumentado los tipos de arquitecturas que podemos imaginar. Estamos implementando de una manera diferente todos los sistemas basados en redes neuronales, y eso tiene implicaciones en software, en matemáticas, en las aplicaciones y en diversos campos. El último ejemplo es lo que está sucediendo con la inteligencia generativa o con la computación cuántica.

Al crear un gran modelo fundacional existe un proceso de filtrado para evitar aquellos datos sensibles o violar derechos de autor. Sin embargo, en la práctica se ha comprobado que algunos programas para generar de textos o imágenes sí han alimentado su algoritmo con información de terceros sin permiso. ¿Por qué sucede esto?

Es cierto, hay gente que está violando el copyright y la protección de los datos. Es una estrategia que no defiendo ni recomiendo, y que solo se podrá implementar a corto plazo. A medio plazo, te aseguro que va a estar lleno de demandas legales y no será sostenible, porque el copyright es algo que se va defender.

Nosotros nos hacemos cargo de la legalidad asociada a nuestros modelos. Sin embargo, si alguien decide utilizar otro y desconoce su procedencia, ahí IBM no puede asumir la responsabilidad legal. No porque seamos malos, sino porque no tenemos ninguna confianza de que podamos defenderlo. La realidad es que se van a confrontar con un riesgo legal significativo.

¿Qué sucede si el desarrollo de inteligencia artificial se concentra en unos pocos actores? ¿Puede tener consecuencias sociales negativas?

Mi filosofía es la de democratizar esta tecnología lo máximo posible, que sea abierta y transparente. Un mundo en el que solo existan tres o cinco actores que crean inteligencia artificial y donde el resto son usuarios no es un buen mundo.

Parte de la gobernanza con la inteligencia artificial es difundirla de tal manera que sea gestionada por la enorme diversidad de instituciones que tenemos en la sociedad. A veces me preocupa ver cómo algunos de mis amigos tecnólogos piensan que ellos deben resolver todos los problemas del mundo. Las ciudades, las regiones y los países tienen una enorme capacidad institucional que también será copartícipe de cómo se crea y se usa la inteligencia artificial.

La visión donde una única persona crea la inteligencia artificial no es sostenible y estoy diametralmente opuesto a ella. La versión más catastrofista de esto es la de aquellos hacen una analogía entre la inteligencia artificial y las armas nucleares, una comparación totalmente errónea. Ni se ha creado así ni tiene las mismas implicaciones. Nosotros defendemos lo opuesto: democratizar la IA y que la gobernanza sea distribuida.

En los últimos meses hemos visto muchas predicciones sobre el futuro de la IA. ¿Cuáles son erróneas? 

Hay mucha gente que ha afirmado que esto iba a suponer el fin del mundo en 2030. No comparto nada de eso. Todas las predicciones catastrofistas que se han hecho de lo que va a pasar en la próxima década me parece simplemente una forma de llamar la atención.

Soy el fan número uno de esta tecnología y me encanta, pero también hay que ser realistas. Cuando salió ChatGPT todo el mundo empezó a jugar con él, pero ahora que han pasado varios meses hemos visto que está bien, pero tampoco es como la penicilina o la electricidad, que cambió las ciudades a una velocidad impresionante. Difundir la tecnología y aplicarla de manera responsable es algo que lleva tiempo.

En ese caso, ¿cuál es el camino real hacia el que avanza la IA?

Lo primero va a ser expandir a gran escala algunas cosas que ya funcionan bien, como el mundo de asistencia al cliente o la automatización en tecnologías de la información. Todo el mundo da por hecho que la productividad va a aumentar de manera enorme, pero normalmente crece de manera muy lenta y también está ligada a aspectos como los salarios, la mejora del bienestar social o la riqueza. Ojalá estos avances multiplicaran por dos o tres la productividad. Yo creo que ese es el primer gran desafío.

Por otro lado, hay muchísimas áreas en las que avanzar, como la modularidad. Si alguien ya ha entrenado un modelo fundacional que procesa muy bien el lenguaje, debería ser un módulo al que poder añadir más para incorporar capacidades adicionales. Además, imagina que alguien ha utilizado datos que ahora no son válidos o se deben eliminar por razones de copyright. Sería muy útil poder extraer esa información del modelo sin tener que construirlo desde cero.

Además, creo que las arquitecturas actuales para construir redes neuronales son muy poco eficientes, especialmente si las comparamos con nuestros sistemas biológicos. Sabemos que existe un amplio margen de mejora, y en el futuro veremos proyectos enfocados en el desarrollo de arquitecturas más sostenibles y eficientes.

Según la hoja de ruta de IBM, el objetivo en 2033 es crear una máquina de 100.000 cúbits. ¿Para qué serviría un ordenador con tal capacidad de procesamiento?

A esa escala esperamos tener un sistema con una corrección de errores completa, que eso es como el Santo Grial de la computación cuántica. Actualmente, existen códigos que nos permiten corregir errores, pero requieren un gran número de cúbits en el sistema para realizar estos cálculos. Sin embargo, creemos que podremos implementar sistemas de corrección de errores con un menor sobrecoste computacional adicional en el futuro.

Por tanto, con un nivel de unos 100.000 cúbits, una nueva metodología de corrección de errores y una mejora de la calidad de los dispositivos va a partir crear ordenadores en los que no estemos hablando de utilidad informática, sino del potencial completo. Esa es la gran ambición y todavía queda mucho trabajo por hacer, pero ya observamos cómo todos los componentes se van ensamblando. Por eso el Quantum System Two [el primer sistema de computación cuántica modular y 100% personalizable del mundo] es tan relevante, porque marca el inicio para la creación de supercomputadoras cuánticas.

En 1950, el matemático Alan Turing cuestionaba si las máquinas podían pensar. ¿Cuánto falta para responder a esa pregunta?

Ya hemos creado máquinas con capacidad para superar el test de Turing, o al menos es inevitable que lleguemos a ese punto. ¿Eso que las máquinas pueden pensar? Depende, es una pregunta más bien filosófica que supone reflexionar sobre qué significa pensar. Personalmente, yo no creo que sea la manera en la que nosotros entendemos lo que es pensar. La funcionalidad puede parecer similar, pero no es igual. No obstante, es inherente a los seres humanos atribuir cualidades propias a algo que realiza funciones de manera indistinguible entre una máquina y una persona.

De hecho, el término "inteligencia artificial" es un tanto desafortunado, ya que parece referirse a algo que no está creado por los seres humanos. Pero ¿quiénes son los responsables del programa? ¿Cuál es el objetivo? Ahí es donde deberíamos centrar nuestra atención, porque a veces se permiten hacer todo tipo de cosas sin que existan consecuencias. Si se crea un sistema que no funciona correctamente o que no es seguro, ¿de quién es la culpa? ¿De la inteligencia artificial? Al final, lo han hecho unas personas que han utilizado la programación como instrumento para crear algo. 

Tecnología y Sociedad

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. ¿Está la robótica a punto de vivir su momento ChatGPT?

    Los investigadores están utilizando la IA generativa y otras técnicas para enseñar a los robots nuevas habilidades, incluidas tareas que podrían realizar en los hogares.

    Stretch Robot Presents a Rose in its gripper
  2. Cómo las baterías térmicas están caldeando el almacenamiento de energía

    Los sistemas, que pueden almacenar energía limpia en forma de calor, fueron elegidos por los lectores como la undécima tecnología emergente de 2024.

    Dos ingenieros con batas de laboratorio controlan la batería térmica que alimenta una cinta transportadora de botellas.
  3. Probar fármacos, crear bioordenadores y otros usos de los organoides

    Los científicos utilizan organoides para analizar candidatos a fármacos, cultivar virus, construir bioordenadores y mucho más

    Probar fármacos, crear bioordenadores y otros usos de los organoides