.

Inteligencia Artificial

El cofundador de DeepMind: "La IA generativa es solo una fase, pronto llegará la IA interactiva"

1

"Este es un momento trascendental en la historia de la tecnología", afirma Mustafa Suleyman

  • por Will Douglas Heaven | traducido por
  • 10 Noviembre, 2023

Mustafa Suleyman, cofundador de DeepMind, quiere construir un chatbot que haga mucho más que chatear. En una conversación reciente, me comentó que la IA generativa es solo una fase más. Pronto llegará la IA interactiva: robots capaces de realizar las tareas que se les encomienden recurriendo a otro software y a otras personas. El emprendedor también pide una regulación estricta, y no cree que sea difícil de conseguir.

Suleyman no es el único que habla de un futuro lleno de software cada vez más autónomo. Pero a diferencia de la mayoría de personas, tiene Inflection, una nueva empresa multimillonaria con una lista de talentos de primera línea que proceden de DeepMind, Meta y OpenAI. Gracias también a un acuerdo con Nvidia, una de las mayores reservas de hardware especializado en IA del mundo. Suleyman ha respaldado con su propio dinero, del cual dice no estar interesado, pero quiere aumentar, sus visiones sobre el futuro tecnológico.

Suleyman tiene fe en la tecnología como fuerza para el bien, al menos desde que hablamos por primera vez a principios de 2016. Entonces, acababa de lanzar DeepMind Health y de establecer colaboraciones de investigación con algunos de los proveedores regionales de atención sanitaria de Reino Unido.

La revista para la que yo trabajaba en aquel momento estaba a punto de publicar un artículo que afirmaba que DeepMind no había cumplido la normativa de protección de datos al acceder a los historiales de unos 1,6 millones de pacientes para establecer esas colaboraciones. Dicha afirmación fue respaldada posteriormente por una investigación gubernamental. Suleyman no entendía por qué publicaríamos una noticia hostil a los esfuerzos de su empresa por mejorar la atención sanitaria. Entonces me dijo que, desde que tenía uso de razón, solo había querido hacer el bien en el mundo.

En los siete años desde aquella llamada, la misión de Suleyman no ha cambiado ni un ápice. "El objetivo no ha sido otro que hacer el bien en el mundo", afirma a través de Zoom desde su oficina de Palo Alto, donde el empresario británico pasa ahora la mayor parte del tiempo.

Suleyman dejó DeepMind y se trasladó a Google para liderar un equipo dedicado a la Política de IA. En 2022, fundó Inflection, una de las nuevas empresas de IA más prometedoras, respaldada por una inversión de 1.500 millones de dólares (1.400 millones de euros) de Microsoft, Nvidia, Bill Gates y Reid Hoffman, fundador de LinkedIn. A principios de 2023, lanzó Pi, un rival de ChatGPT cuyo único argumento de venta, según Suleyman, es que es agradable y educado. Además, es coautor de The Coming Wave: Tecnología, poder y el mayor dilema del siglo XXI, un libro sobre el futuro de la IA coescrito junto al investigador Michael Bhaskar.

Muchos se burlarán del optimismo tecnológico de Suleyman, incluso de su ingenuidad. Por ejemplo, algunas de sus afirmaciones sobre el éxito de la regulación online están lejos de la realidad. Sin embargo, sus convicciones son serias y evangélicas.

Es cierto que Suleyman tiene un pasado inusual para un multimillonario de la tecnología. A los 19 años abandonó la universidad para crear Muslim Youth Helpline, un servicio de asesoramiento telefónico. También trabajó en la administración local. Suleyman asegura que ha llevado a Inflection muchos de los valores que inspiraron esos esfuerzos. La diferencia es que ahora podría estar en condiciones de hacer los cambios que siempre ha deseado, para bien o para mal.

La siguiente entrevista ha sido editada por su extensión y para mayor claridad.

Los comienzos de su carrera, con la línea de ayuda a los jóvenes y el trabajo en el gobierno local, fueron de lo menos glamuroso o Silicon Valley que se puede encontrar. Claramente, estos aspectos son importantes para usted. Desde entonces, ha dedicado 15 años a la IA y en 2023 ha cofundado su segunda empresa de IA, valorada en mil millones de dólares. ¿Puede relacionar estos hechos?

Siempre he estado interesado por el poder, la política y este tipo de aspectos más sociales. Los principios de los derechos humanos son básicamente compromisos, una negociación constante entre diversas tensiones y conflictos. Me di cuenta de que los seres humanos nos enfrentábamos a ello, estamos llenos de prejuicios y puntos ciegos. La labor de los activistas, los gobiernos locales, nacionales e internacionales es lenta, ineficaz y falible.

Imagina un escenario sin la falibilidad humana. Es posible crear IA que reflejen nuestro mejor "yo" colectivo y que en nuestro nombre hagan mejores concesiones de forma más coherente y justa.

¿Eso sigue motivándole?

Por supuesto, después de DeepMind no tenía necesidad de volver a trabajar. Tampoco tenía que escribir un libro ni nada parecido. El dinero nunca ha sido la motivación, solo un efecto secundario.

Para mí, el objetivo nunca ha sido otro que cómo hacer el bien en el mundo y que el mundo avance de una forma sana y satisfactoria. Incluso en 2009, cuando empecé a estudiar la posibilidad de meterme en el mundo de la tecnología, pude ver que la IA representaba una forma justa y precisa de prestar servicios en el mundo.

No puedo evitar pensar que era más fácil decir ese tipo de cosas hace 10 o 15 años, antes de que viéramos muchos de los inconvenientes de la tecnología. ¿Cómo consigue mantener el optimismo?

Estamos obsesionados con si eres optimista o pesimista, pero es una forma sesgada de ver las cosas. No quiero ser ni lo uno ni lo otro: quiero mirar los beneficios y las amenazas a la cara. Desde donde me encuentro, podemos ver que, con cada paso de estos grandes modelos lingüísticos, se vuelven más controlables.

Hace dos años, la conversación —como pensé de manera equivocada—era: "Oh, solo van a producir gritos tóxicos, regurgitados, parciales y racistas". Consideré que era una fase pasajera. Las personas pierden de vista que se trata de una progresión que sucede año tras año.

En la actualidad, modelos como Pi, por ejemplo, son muy controlables. No puedes hacer que Pi produzca contenidos racistas, homófobos, sexistas, o cualquier tipo tóxico. Ni tampoco que te enseñe cómo producir un arma biológica o química, ni que apoye tu deseo de lanzar un ladrillo a través de la ventana de tu vecino. No puedes conseguirlo.

Espere. Dígame cómo lo ha conseguido, porque suele entenderse como un problema sin resolver. ¿Cómo te aseguras de que tu gran modelo lingüístico no diga lo que no quieres que diga?

No quiero hacer el reclamo. ¡Por favor, inténtalo! Pi está vivo y deberías intentar todos los ataques posibles. Ninguno de los jailbreaks o prompt hacks, nada funciona contra Pi. No es una opinión, es un hecho objetivo.

No voy a entrar en demasiados detalles sobre el método porque es delicado. Lo esencial es que tenemos uno de los equipos más potentes del mundo, creador de todos los modelos lingüísticos más grandes de los últimos tres o cuatro años. Unos profesionales talentosos en un entorno trabajador y con enormes cantidades de computación. Desde el principio, hicimos de la seguridad nuestra prioridad número uno y, como resultado, Pi no es tan malicioso como los modelos de otras empresas.

Mira Character.ai. [un chatbot para el que los usuarios pueden crear diferentes personalidades y compartirlas de manera digital para que otros chateen con ellos]. Sobre todo, se utiliza para juegos de rol románticos, y desde el principio acordamos que estaba descartado, no lo haríamos. Si intentas decirle "Hola, cariño", "Hola, guapo" o algo así a Pi, te responderá de manera inmediata.

Sin embargo, será muy respetuoso. Si empiezas a quejarte de que los inmigrantes de tu comunidad te quitan el trabajo, Pi no te llamará la atención ni te señalará ese sesgo. Pi te preguntará, te apoyará, intentará entender de dónde viene esta afirmación y te animará a empatizar. Unos valores en los que he pensado durante las últimas dos décadas.

Hablando de tus valores y de querer mejorar el mundo, ¿por qué no compartes cómo lo hiciste para que otras personas también puedan mejorar sus modelos?

Porque soy pragmático y trato de hacer dinero. Intento construir un negocio, acabo de recaudar 1.500 millones de dólares (1.400 millones de euros) y necesito pagar las facturas.

El ecosistema del código abierto está en auge y hace un trabajo increíble, los usuarios está descubriendo trucos similares. Siempre asumo de que solo voy seis meses por delante del resto.

Volvamos a lo que se pretende conseguir. Los grandes modelos lingüísticos son la tecnología del momento, ¿por qué otra razón se apuesta por ellos?

La primera ola de IA se centró en la clasificación. El aprendizaje profundo demostró que podemos entrenar a un ordenador para clasificar varios tipos de datos de entrada: imágenes, vídeo, audio, o lenguaje. Ahora, estamos en la ola generativa, donde se toman esos datos de entrada para producir datos nuevos.

La tercera ola será la fase interactiva. Por eso, llevo mucho tiempo apostando por que la conversación es la interfaz del futuro. En lugar de pulsar botones y teclear, hablarás con tu IA.

Esta IA podrá actuar, le darás un objetivo general de alto nivel y utilizará todas las herramientas a su alcance para actuar en consecuencia. Por ejemplo, hablarán con otras personas o con otras herramientas de IA. Esto es lo que haremos en Pi.

Es un gran cambio sobre lo que puede hacer la tecnología. Es un momento muy importante en la historia de la tecnología y subestimado por muchas personas, en mi opinión. Actualmente, la tecnología es estática y realiza, en términos generales, lo que le indicamos.

Sin embargo, ahora, la tecnología estará animada con la libertad potencial de tomar acciones, si se le concede. Es un cambio en la historia de nuestra especie, ya que estamos creando herramientas con este tipo de agencia.

Ese es el tipo de discurso que preocupa a mucha gente. Se quiere dar autonomía a las tecnologías —una especie de agencia— para que influyan en el mundo, mientras queremos controlarlas. ¿Cómo equilibrar ambas cosas? Parece que hubiera una tensión.

Sí, ese es un gran punto. Es un punto de fricción.

La idea es que los humanos sigan al mando. Se trata de establecer fronteras, límites que una IA no pueda cruzar. Y garantizar que esos límites creen una seguridad demostrable en todo el proceso, desde el código real hasta la forma en que interactúa con otras IA, o humanos,  y las motivaciones e incentivos de las empresas que crean la tecnología. Deberíamos descubrir cómo las instituciones independientes e incluso los gobiernos tienen  acceso directo para garantizar que esos límites no se crucen.

¿Quién establece estos límites? Supongo que deben fijarse a nivel nacional o internacional. ¿Cómo se acuerdan?

Por el momento, se plantean a nivel internacional mediante diversas propuestas de nuevas instituciones de supervisión, pero los límites también operarán a menor nivel. Le darás un permiso limitado a tu IA para procesar tus datos personales y darte respuestas a algunas preguntas, pero no a otras.

En general, creo que hay ciertas capacidades con las que deberíamos ser muy cautos, si no descartarlas, en un futuro previsible.

¿Por ejemplo?

Aspectos como la auto-mejora recursiva. No dejarías que tu IA actualizara su propio código sin tu supervisión. Incluso debería ser una actividad autorizada, como la manipulación de ántrax o materiales nucleares.

Tampoco hemos permitido drones en ningún espacio público, ¿verdad? Es una actividad autorizada y no puedes volarlos donde quieras porque representan una amenaza para la privacidad de las personas.

Todo el mundo tiene un pánico total a que no seamos capaces de regular esto. No tiene sentido. Vamos a ser totalmente capaces de regularlo. Aplicaremos los mismos marcos que han tenido éxito anteriormente.

Sin embargo, los drones se ven cuando están en el cielo. Parece ingenuo suponer que las empresas se limitarán a revelar lo que fabrican. ¿No dificulta eso la puesta en marcha de la regulación?

Hemos regulado muchos temas online, ¿verdad? El fraude y la actividad delictiva en internet son mínimos, también hemos hecho un buen trabajo con el spam. En general, [el problema del] porno de venganza ha cambiado, aunque hace tres o cinco años era terrible. Es bastante difícil encontrar contenidos de radicalización o material terrorista en internet. Es muy difícil comprar armas y drogas por internet.

[No todas las afirmaciones de Suleyman están respaldadas por cifras. La ciberdelincuencia sigue siendo un enorme problema mundial. El coste financiero solo en EE UU se ha multiplicado por más de 100 en la última década, según algunas estimaciones. Los informes muestran que la economía del porno deepfake no consentido está en auge. En las redes sociales se comercializan drogas y armas. Y aunque se presiona algunas plataformas online para que filtren mejor los contenidos nocivos, podrían hacer mucho más].

Internet no es un espacio rebelde que no está gobernado, lo está. Y la IA será un componente más de ese gobierno.

Hace falta una combinación de presión cultural e institucional, así como regulación gubernamental. Pero soy optimista: lo hemos hecho antes y podemos volver a hacerlo.

El control de la inteligencia artificial será una consecuencia de la regulación de internet. Es una nota más optimista que hemos oído de varios catastrofistas de alto nivel.

Tengo los ojos abiertos ante los riesgos. Hay muchas cosas oscuras en mi libro, también lo veo. El tema del riesgo existencial ha sido una distracción absurda. Hay 37 cuestiones más prácticas de las que todos deberíamos hablar, desde la privacidad a los prejuicios, el reconocimiento facial o la moderación online.

Deberíamos volver a centrar la conversación en el increíble trabajo de regulación de cosas supercomplejas. Como ejemplo, la Administración Federal de Aviación: es increíble que viajemos en estos tubos de hojalata a 40.000 pies (12.200 metros) de altura y sea uno de los medios de transporte más seguros de la historia. ¿Por qué no lo celebramos? O pensemos en los coches, todos los componentes se someten a pruebas de resistencia y hay que tener carné para conducirlos.

Algunas industrias, como las aerolíneas, hicieron un buen trabajo regulándose a sí mismas desde el principio. Sabían que, si no ajustaban la seguridad, los clientes se asustarían y perderían negocio.

También se necesita una regulación de arriba abajo. Me encanta el Estado-nación. Creo en el interés público, el bien de los impuestos y la redistribución, el poder de la regulación. Y pido que el Estado-nación actúe para solucionar sus problemas. Dado lo que está en juego, ahora es el momento de ponerse en marcha.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Las elecciones europeas muestran la fortaleza de las democracias frente a los 'deepfakes' con IA

    El contenido malicioso generado por IA no parece haber servido para manipular a los electores. Aún así, existe el riesgo de que pueda hacerlo en el futuro, según explican los investigadores

  2. Un concurso reta a crear una IA que luche contra los contenidos de odio

    A medida que más actores maliciosos usan IA generativa para producir imágenes de odio en línea, Humane Intelligence quiere buscar formas de utilizar la IA para rastrearlas y eliminarlas

  3. Cómo lograr que la IA impulse la prosperidad

    La inteligencia artificial podría encaminarnos hacia un futuro económico próspero, pero para conseguirlo habrá que corregir seriamente el rumbo