.

Ariel Davis

Inteligencia Artificial

Historia, mitos, retos y amenazas de la inteligencia artificial general

1

Aunque el concepto ha evolucionado desde que nació hace dos décadas, de que hay expertos que no creen que jamás pueda alcanzarse y de que ni siquiera entendemos la mente humana ni la conciencia, el término y su búsqueda están ayudando a orientar la dirección de la investigación general de la IA y acelerar algunos avances

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 12 Noviembre, 2020

La idea de la inteligencia artificial general (IAG, o AGI por sus siglas en inglés) tal como la conocemos hoy en día empezó con el auge de las puntocom en Broadway (EE. UU.). 

Hace veinte años, antes de que Shane Legg se juntara con el estudiante de posgrado en neurociencia Demis Hassabis gracias a la fascinación que compartían por la inteligencia; y antes de que ambos se pusieran de acuerdo con el amigo de la infancia de Hassabis y activista progresista Mustafa Suleyman, para convertir esa fascinación en la empresa llamada DeepMind; antes de que Google comprara esa empresa por más de 500 millones de dólares (421,5 millones de euros) cuatro años después, Legg trabajaba en una start-up de Nueva York (EE. UU.) llamada Webmind, creada por el investigador de IA Ben Goertzel. En la actualidad, estos dos hombres representan dos ramas muy diferentes del futuro de la inteligencia artificial, pero sus raíces se remontan a un terreno común.

Incluso durante los vertiginosos días de la burbuja de las puntocom, los objetivos de Webmind eran ambiciosos. Goertzel quería crear un cerebro de bebé digital y lanzarlo a internet, donde creía que crecería para volverse completamente consciente de sí mismo y mucho más inteligente que los seres humanos. "Estamos en vísperas de una transición de igual magnitud a la aparición de la inteligencia o al surgimiento del lenguaje", dijo al Christian Science Monitor en 1998.

Para intentar financiar la empresa, Webmind construyó una herramienta para predecir el comportamiento de los mercados, pero su gran sueño del cerebro de bebé artificial nunca se cumplió. Después de gastar 20 millones de dólares (16,86 millones de euros), Webmind fue desalojado de sus oficinas y dejó de pagar a su personal. Se declaró en quiebra en 2001.

Fotografía del Dr. Ben Goertzel

Foto: el investigador de IA Ben Goertzel

Pero Legg y Goertzel seguían en contacto. Cuando Goertzel preparaba un libro de ensayos sobre la IA sobrehumana unos años más tarde, fue Legg a quien se le ocurrió el título. El investigador recuerda: "Estaba hablando con Ben y le dije: 'Bueno, si se trata de lo general que los sistemas de IA aún no tienen, deberíamos llamarlo simplemente Inteligencia Artificial General'. Y IAG suena muy bien como acrónimo", quien ahora es el científico jefe de DeepMind.

Ese término se quedó. El libro de Goertzel y la conferencia anual IAG que organizó en 2008 han convertido a AIG en una palabra de moda para la IA humana o sobrehumana. Pero también ha empezado a estar en el punto de mira. El director de IA en Facebook Jerome Pesenti afirma: "No me gusta el término AIG. No sé qué significa".

No es el único. Parte del problema consiste en que AIG es un comodín para las esperanzas y temores que rodean a toda la tecnología. Contrariamente a la creencia popular, no se trata de una conciencia artificial ni de robots pensantes (aunque mucha gente de IAG también sueña con eso), sino de pensar en grande.

Muchos de los desafíos a los que nos enfrentamos hoy en día, desde el cambio climático hasta la falta de democracia y las crisis de salud pública, son enormemente complejos. Si tuviéramos máquinas que pudieran pensar como nosotros o mejor, más rápido y sin cansarse, entonces tal vez tendríamos más posibilidades de resolver estos problemas. Como expresó el científico informático I.J. Good en 1965: "la primera máquina ultrainteligente es el último invento que el hombre necesita crear".

Elon Musk, quien desde el principio invirtió en DeepMind y se asoció con un pequeño grupo de grandes inversores, incluidos Peter Thiel y Sam Altman, para invertir 1.000 millones de dólares en OpenAI, se ha creado una marca personal basada en predicciones descabelladas. Pero cuando habla, millones de personas lo escuchan. Hace unos meses le dijo al The New York Times que la IA sobrehumana está a menos de cinco años. "Va a llegar muy pronto. Entonces tendremos que averiguar qué deberíamos hacer, si es que tenemos esa opción", afirmó en el pódcast de Lex Fridman.

En mayo, Pesenti respondió a eso en un tuit: "Elon Musk no tiene ni idea de lo que está diciendo. No existe tal cosa como AIG y no estamos ni cerca de igualar la inteligencia humana". Musk respondió: "Facebook apesta".

Estos rifirrafes no son raros. El antiguo jefe de IA en Baidu y cofundador de Google Brain Andrew Ng lo expresó de esta forma: "Acabemos con las tonterías de la IAG y dediquemos el tiempo a los problemas urgentes".

El investigador de IA en la Universidad de Nueva York Julian Togelius opina: "Creer en la AIG es como creer en la mIAGa. Es una forma de abandonar el pensamiento racional y expresar esperanza / miedo por algo que no se puede entender". Si buscamos el hashtag #noIAG en Twitter encontraremos a muchos de los pesos pesados de la inteligencia artificial, incluido el científico jefe de IA de Facebook, Yann LeCun, que ganó el premio Turing en 2018.

Pero con la reciente racha de éxitos de la IA, desde el campeón de juegos de mesa AlphaZero hasta el convincente generador de texto falso GPT-3, el debate sobre la AIG se ha disparado. Aunque esas herramientas todavía están muy lejos de representar la inteligencia "general" (AlphaZero no puede escribir relatos y GPT-3 no puede jugar al ajedrez y mucho menos razonar de forma inteligente sobre por qué los relatos y el ajedrez son importantes para las personas), el objetivo de crear un IAG, antes considerado una locura, vuelve a ser aceptable. 

Algunos de los más grandes y respetados laboratorios de inteligencia artificial del mundo se toman este objetivo muy en serio. OpenAI ha dicho que quiere ser el primero en construir una máquina con habilidades de razonamiento similares a las humanas. La declaración de misión no oficial pero ampliamente repetida de DeepMind es "resolver la inteligencia". Las personas más importantes de ambas empresas están encantadas de explicar estos objetivos en términos de AIG.

Medio siglo después, todavía estamos lejos de crear una IA con la habilidad multitarea de un ser humano, o incluso de un insecto.

Legg recuerda: "Hablar de AIG a principios de la década de 2000 suponía pertenecer a un sector radical. Incluso cuando fundamos DeepMind en 2010, había una asombrosa cantidad de personas con gestos de desacuerdo en las conferencias". Pero la situación está cambiando. "Alguna gente se siente incómoda con eso, pero ya se empieza a notar una mejor acogida", añade.

Entonces, ¿por qué la AIG resulta tan controvertida? ¿Por qué tiene tanta importancia? ¿Es un sueño irresponsable y engañoso, o el objetivo final? 

¿Qué es la inteligencia artificial general?

El uso del término ha sido popular durante poco más de una década, pero las ideas que engloba llevan existiendo desde siempre. 

En el verano de 1956, una docena de científicos se reunieron en el Dartmouth College de New Hampshire (EE.UU.) para trabajar en lo que creían que iba a ser un simple proyecto de investigación. En la anterior descripción del taller, los pioneros de la inteligencia artificial John McCarthy, Marvin Minsky, Nat Rochester y Claude Shannon escribieron: "El estudio debe partir de la hipótesis de que todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia pueden, en principio, ser tan precisamente descritos que sería posible crear una máquina para simularlos. Se intentará encontrar la forma para que las máquinas usen el lenguaje, creen abstracciones y conceptos, resuelvan los tipos de problemas que actualmente solo pueden solucionar los humanos y se vayan autoperfeccionando". Pensaron que 10 personas tardarían dos meses en conseguirlo.

Otra vez aparece Minsky en 1970 de nuevo, impávido: "Dentro de tres a ocho años, tendremos una máquina con la inteligencia general de un ser humano promedio. Me refiero a una máquina que podrá leer a Shakespeare, engrasar un coche, seguir la política organizacional, contar un chiste, pelear. En ese momento, la máquina comenzará a educarse a sí misma con una velocidad fantástica. En unos meses llegará al nivel de un genio, y algunos meses después, sus poderes serán incalculables".

Tres puntos se destacan de estas visiones para la IA: la capacidad similar a la humana para generalizar, la capacidad sobrehumana para avanzar automejorando a un ritmo exponencial y una gran parte de pura ilusión. Medio siglo después, todavía estamos lejos de crear una IA con la habilidad multitarea de un ser humano, o incluso de un insecto.

Foto de la oficina de Google en el Reino Unido

Eso no quiere decir que no haya habido grandes éxitos. Muchos de los objetivos de esa primera lista de deseos se han cumplido: tenemos máquinas que pueden usar el lenguaje y detectar y resolver muchos de nuestros problemas. Pero las IA de hoy en día no son similares a los seres humanos en la forma en la que lo imIAGnaron los pioneros. El aprendizaje profundo, la tecnología que impulsa el auge de la inteligencia artificial, entrena a las máquinas para que se conviertan en maestros en una gran cantidad de cosas, como escribir noticias falsas y jugar al ajedrez, pero solo pueden dominar una de esas tareas a la vez. 

Cuando Legg sugirió a Goertzel el término AIG para su libro publicado en 2007, quiso comparar la inteligencia artificial general con la simple y convencional idea de la IA. Otras personas han usado varios términos relacionados, como "IA fuerte" e "IA real", para distinguir la visión de Minsky de la IA que se ha creado. 

Hablar de AIG a menudo significaba que la IA había fracasado. La investigadora de IA en la Escuela Hertie de Berlín (Alemania) Joanna Bryson afirma: "Era la idea de que, por un lado, se hacían estas cosas aburridas, como la visión artificial, pero por el otro —y yo formaba parte de ese grupo en ese momento— todavía intentábamos comprender la inteligencia humana. La inteligencia artificial fuerte, la ciencia cognitiva, la AIG: estas eran nuestras diferentes formas de decir: 'Ustedes han metido la pata; nosotros estamos avanzando'".

Esta idea de que la AIG es el verdadero objetivo de la investigación de la IA sigue vigente. Un sistema de inteligencia artificial en funcionamiento pronto se convierte en una simple una pieza de software: las "cosas aburridas" a las que se refería Bryson. Por otro lado, la AIG se ha convertido en un sustituto de cualquier IA que todavía no sabemos cómo construir, siempre fuera de nuestro alcance.

A veces, Legg habla de AIG como si fuera una especie de multiherramienta: una máquina que resuelve muchos problemas diferentes, sin tener que diseñar una nueva para cada desafío adicional. Desde ese punto de vista, no sería más inteligente que AlphaGo o GPT-3; simplemente tendría más capacidades. Sería una IA de propósito general, no una inteligencia real. Pero también habla de una máquina con la que sería posible interactuar como si fuera otra persona. Él describe una especie del mejor compañero de juegos: "Sería maravilloso interactuar con una máquina y enseñarle un nuevo juego de cartas para que lo entienda, nos haga preguntas y juegue con nosotros. Sería un sueño hecho realidad".

Cuando las personas piensan en la AIG, suelen ser estas habilidades humanas las que tienen en mente. Al colega de Legg en DeepMind Thore Graepel le gusta citar al autor de ciencia ficción Robert Heinlein, que parece reflejar las palabras de Minsky: "Un humano debería ser capaz de cambiar un pañal, planear una invasión, matar a un cerdo, amarrar un barco, diseñar un edificio, escribir un soneto, gestionar cuentas, construir un muro, fijar un hueso, consolar a los moribundos, recibir órdenes, dar órdenes, cooperar, actuar solo, resolver ecuaciones, analizar un nuevo problema, poner abono, programar un ordenador, cocinar una comida sabrosa, luchar eficazmente, morir con dignidad. La especialización es para los insectos".

Sin embargo, un dato curioso es que la descripción a la que se refiere Graepel la pronuncia el personaje Lazarus Long de la novela de Heinlein de 1973 Tiempo para amar (título original en inglés Time Enough for Love). Long es una especie de superhombre, el resultado de un experimento genético que le permite vivir durante cientos de años. Durante ese tiempo tan largo, Long vive muchas vidas y domina muchas habilidades. En otras palabras, Minsky describe las habilidades de un típico ser humano, pero Graepel no

De esta manera, los objetivos de la AIG cambian constantemente. ¿Qué quiere decir la gente cuando habla de la inteligencia artificial similar a la humana, humana como yo, o humana como Lazarus Long? Para Pesenti, esta ambigüedad es un problema: "No creo que nadie sepa qué es. Los seres humanos no pueden hacer de todo. No pueden resolver todos los problemas y no pueden automejorarse".

Foto: El campeón de Go Lee Sedol (a la izquierda) le da la mano al cofundador de DeepMind, Demis Hassabis. Créditos: GETTY

Entonces, ¿cómo podría ser una AIG en la práctica? Decir "similar a un humano" resulta indefinido y demasiado específico a la vez. Los humanos son el mejor ejemplo de la inteligencia general que tenemos, pero también son altamente especializados. Un resumen rápido del variado universo de la inteligencia animal, desde la cognición colectiva que se ve en las hormigas hasta las habilidades de resolución de problemas de los cuervos o pulpos y la inteligencia más reconocible pero aún extraña de los chimpancés, muestra que hay muchas formas de desarrollar una inteligencia general.

Incluso si logramos crear la AIG, puede que no la comprendamos completamente. Los actuales modelos de aprendizaje automático suelen ser "cajas negras", lo que significa que llegan a los resultados precisos a través de caminos de cálculo que ningún humano puede entender. Si se añade la superinteligencia automejorable a la mezcla queda claro por qué la ciencia ficción a menudo proporciona las analogías más fáciles. 

Algunos también vincularían la conciencia o la sensibilidad en los requisitos para una AIG. Pero si la inteligencia es algo difícil de definir, la conciencia es aún peor. Los filósofos y científicos no tienen claro qué es eso dentro de nosotros, y mucho menos qué sería lo mismo en un ordenador. La inteligencia probablemente requiera cierto grado de autoconciencia, la capacidad de reflexionar sobre nuestra propia visión del mundo, pero eso no es necesariamente lo mismo que la conciencia: cómo nos sentimos  al experimentar el mundo o reflexionar sobre nuestra visión del mundo. Incluso los más fieles de la AIG no creen en la conciencia de la máquina. 

¿Cómo se crea la IAG?

Legg ha estado persiguiendo la inteligencia durante toda su carrera. Después de Webmind, trabajó con Marcus Hutter en la Universidad de Lugano (Suiza) en su tesis de doctorado titulada Machine Super Intelligence. Hutter (que actualmente también trabaja en DeepMind) elaboraba una definición matemática de inteligencia limitada solo por las leyes de la física: una inteligencia general suprema.

Los dos juntos publicaron una ecuación para lo que denominan inteligencia universal, Legg describe como una medida de la capacidad para lograr objetivos en una amplia variedad de entornos. Demostraron que su definición matemática era similar a muchas teorías de la inteligencia en psicología, que también define la inteligencia en términos de la generalidad.

En DeepMind, Legg está convirtiendo su trabajo teórico en demostraciones prácticas, comenzando con la IA que consigue algunos objetivos concretos en entornos específicos, desde juegos hasta plegamiento de proteínas. 

La parte complicada viene después: unir esas múltiples habilidades. El aprendizaje profundo es el enfoque más general que tenemos, ya que un algoritmo de aprendizaje profundo se puede usar para aprender más de una tarea. AlphaZero usó el mismo algoritmo para aprender Go, shogi (un juego similar al ajedrez de Japón) y ajedrez. El sistema Atari57 de DeepMind utilizó el mismo algoritmo para dominar todos los videojuegos de Atari. Pero la IA todavía solo es capaz de aprender una cosa a la vez. Después de controlar el ajedrez, AlphaZero tiene que borrar su memoria y aprender shogi desde cero.

Legg se refiere a este tipo de generalidad como la de "un algoritmo", frente a la de "un cerebro", como el que tienen los humanos. La primera es muy útil, pero no tan interesante como la segunda, y explica: "Nosotros no tenemos que cambiar de cerebro; no nos ponemos nuestro cerebro de ajedrez para jugar una partida".

Pasar de un algoritmo a un cerebro es uno de los mayores desafíos abiertos en la IA. Una IA de un cerebro todavía no sería una verdadera inteligencia, solo una mejor IA de propósito general: la herramienta múltiple de Legg. Pero, independientemente si se dedican a la AIG o no, los investigadores están de acuerdo en que los sistemas actuales deben ser de uso más general, y para los que tienen la AIG como objetivo, una IA de propósito general es un primer paso necesario. Hay una larga lista de enfoques que podrían ayudar. Van desde la tecnología emergente que ya está aquí hasta los experimentos más radicales.

Aproximadamente en orden de madurez, serían los siguientes:

  • Aprendizaje no supervisado o autosupervisado. Marcar conjuntos de datos (por ejemplo, todas las imágenes de gatos con "gato") para indicarle a la IA lo que ve durante el entrenamiento es la clave de lo que se conoce como aprendizaje supervisado. Todavía se hace en gran parte a mano y eso es un gran obstáculo. La IA debe ser capaz de aprender por sí misma sin la guía humana, por ejemplo, mirando las imágenes de gatos y perros y aprendiendo a diferenciarlos sin ayuda, o detectar anomalías en transacciones financieras sin tener ejemplos previos marcados por una persona. Esto, conocido como aprendizaje no supervisado, ya se está volviendo más común.

  • Aprendizaje por transferencia, incluido el aprendizaje de pocas oportunidades. La mayoría de los actuales modelos de aprendizaje profundo se pueden entrenar para hacer solo una cosa a la vez. El aprendizaje por transferencia tiene como objetivo permitir que las IA transfieran algunas partes de su entrenamiento para una tarea, como jugar al ajedrez, a otra, como jugar al Go. Así es como aprenden los humanos.

  • Sentido común y la deducción causal. Sería más fácil transferir el entrenamiento entre tareas si una IA tuviera una base de sentido común para comenzar. Y una parte clave del sentido común es entender la relación causa-efecto. Dar sentido común a la IA es un tema de investigación candente en este momento, con enfoques que van desde codificar algunas reglas simples en una red neuronal hasta limitar las posibles predicciones que una IA puede generar. Pero este trabajo aún se encuentra en sus primeras etapas.

  • Optimizadores de aprendizaje. Se trata de herramientas que se pueden usar para dar forma a la manera en la que aprende la IA, guiándola para entrenar de manera más eficiente. Estudios recientes muestran que estas herramientas se pueden entrenar a sí mismas, lo que significa que una IA se usa para entrenar a otras. Podría ser un pequeño paso hacia la automejora de la IA, el objetivo de AIG. 

Todas estas áreas de investigación se basan en el aprendizaje profundo, que en este momento sigue siendo la forma más prometedora de desarrollar la IA. El aprendizaje profundo se basa en las redes neuronales, que se suelen describir como las cerebrales en el sentido de que sus neuronas digitales están inspiradas en las biológicas. La inteligencia humana es el mejor ejemplo de la inteligencia general que tenemos, por lo que tiene sentido buscar la inspiración dentro de nosotros mismos. 

Pero los cerebros son algo más de una gran maraña de neuronas. Tienen componentes separados que colaboran entre ellos. 

Hassabis, por ejemplo, estudiaba el hipocampo, que procesa la memoria, cuando conoció a Legg. Hassabis cree que la inteligencia general en el cerebro humano proviene en parte de la interacción entre el hipocampo y la corteza. Esta idea llevó a la IA de Atari de DeepMind, que utiliza el algoritmo inspirado en el hipocampo, denominado DNC (differential neural computer en inglés, ordenador neuronal diferencial), que combina una red neuronal con un componente de memoria

Los componentes artificiales similares al cerebro, como el DNC, se conocen también como arquitecturas cognitivas. Desempeñan un papel en otras IA de DeepMind como AlphaGo y AlphaZero, que combinan dos redes neuronales especializadas separadas con árboles de búsqueda, una forma más antigua de algoritmo que funciona un poco como un diagrama de flujo para las decisiones. Los modelos de lenguaje como GPT-3 combinan una red neuronal con una más especializada llamada transformador, que gestiona las secuencias de datos como el texto.

Al final, todos los enfoques para alcanzar la AIG se reducen a dos grandes escuelas de pensamiento. Una considera que si se consiguen los algoritmos adecuados, sería posible organizarlos en cualquier arquitectura cognitiva. Los laboratorios como OpenAI parecen respaldar este método, construyendo modelos de aprendizaje automático cada vez más grandes que podrían conseguir la AIG por fuerza bruta.

Fotografía conceptual del tablero de ajedrez

La otra escuela sostiene que la fijación por el aprendizaje profundo nos está frenando. Si la clave de la AIG es descubrir cómo los componentes de un cerebro artificial deberían trabajar conjuntamente, entonces prestar demasiada atención a los componentes en sí —a los algoritmos de aprendizaje profundo— es como cuando los árboles no nos dejen ver el bosque.

Si se consigue la arquitectura cognitiva adecuada se podrán conectar los algoritmos casi como una idea adicional. Este es el enfoque preferido de Goertzel, cuyo proyecto OpenCog es un intento de construir una plataforma de código abierto que encajaría diferentes piezas del rompecabezas en un todo de AIG. También es un camino que DeepMind exploró cuando combinó las redes neuronales y los árboles de búsqueda para AlphaGo.

Legg señala: "Mi sensación personal es que se trata de algo entre las dos ideas. Me imIAGno que hay una cantidad relativamente pequeña de algoritmos cuidadosamente diseñados que podremos combinar para llegar a ser realmente potentes".

Goertzel no está en desacuerdo: "Me impresiona la profundidad del pensamiento sobre la AIG en Google y DeepMind [ambas son propiedad de Alphabet]. Si alguna gran empresa lo consiga, será una de esas dos".

No obstante, no será pronto. Teniendo en cuenta que han subestimado este desafío durante décadas, pocas personas, aparte de Musk, quieren atreverse a adivinar cuándo llegará la AIG (si es que llega). Ni siquiera Goertzel se arriesga a fijar sus objetivos en una determinada línea de tiempo, aunque cree que será más temprano que tarde. No hay duda de que los rápidos avances en el aprendizaje profundo, y el GPT-3, en concreto, han aumentado las expectativas porque imitan ciertas habilidades humanas. Pero la imitación no es inteligencia. Todavía existen agujeros muy grandes en el camino por delante, y los investigadores aún no han descubierto su profundidad, y mucho menos cómo llenarlos. 

"Pero si seguimos moviéndonos rápido, ¿quién sabe? En un par de décadas, podríamos contar con algunos sistemas muy, muy capaces", resalta Legg.

¿Por qué la AIG es tan controvertida?

Parte de la razón por la que nadie sabe cómo construir una AIG es que pocos están de acuerdo en lo que representa. Los diferentes enfoques reflejan las distintas ideas sobre lo que estamos buscando, desde una herramienta multitarea hasta la IA sobrehumana. Se están dando pequeños pasos para lograr que la IA sea más de uso general, pero hay un enorme abismo entre una herramienta de uso general capaz de resolver varios problemas diferentes y otra capaz de solucionar los problemas que los humanos no pueden: el "último invento" de Good. "Hay muchísimo progreso en la IA, pero eso no implica que haya avance en la AIG", afirma Andrew Ng.

Sin pruebas de ninguna de las partes sobre si la AIg es alcanzable o no, este asunto se convierte en una cuestión de fe. Togelius detalla: "Me recuerda a esos argumentos de la filosofía medieval sobre si es posible colocar un número infinito de ángeles en la cabeza de un alfiler. No tiene sentido; son solo palabras".

Goertzel resta importancia a la controversia: "Hay personas en los extremos de ambos lados, pero también hay mucha gente en el medio que no tiende a hablar tanto".

El mundo de la AIG está lleno de investigadores que exploran los confines de cómo crear una superinteligencia. 
Inteligencia emergente
Kristinn Thórisson explora qué sucede cuando los programas simples reescriben otros programas simples para generar aún más programas. Le interesan los comportamientos complejos que surgen de los procesos simples que se dejan desarrollar por sí mismos. 
Inteligencia universal
Arthur Franz intenta usar la definición matemática de la AIG de Marcus Hutter, que supone una potencia informática infinita, y convertirla en un código que funcione en la práctica. 
Inteligencia de código abierto
David Weinbaum trabaja en la inteligencia que progresa sin metas determinadas. La idea es que las funciones de recompensa, como las que se utilizan normalmente en el aprendizaje reforzado, reducen el enfoque de la IA. Weinbaum intenta desarrollar la inteligencia que funcione fuera de un específico ámbito de un problema y simplemente se adapte a su entorno sin un objetivo fijo

Goertzel coloca a un escéptico de la AIG como Ng en un extremo y a sí mismo en el otro. Desde que trabajaba en Webmind, Goertzel ha llamado la atención de los medios de comunicación como la cabeza visible a favor de la AIG. Organiza la Conferencia AIG y dirige una organización llamada SingularityNet, que él mismo describe como una especie de "Webmind en blockchain". De 2014 a 2018 también fue científico jefe de la empresa Hanson Robotics que en 2016 presentó un robot humanoide parlante llamado Sophia, que era más un maniquí de parque temático que el resultado de una investigación de vanguardia.

Aunque Sophia acaparó titulares para Goertzel en todo el mundo, incluso él admite que se trata simplemente de un "robot teatral", no de una IA. El estilo particular de espectáculo de Goertzel ha provocado que muchos investigadores serios de IA se distancien de su extremo del espectro.

En el medio, Goertzel pondría a las personas como el investigador de inteligencia artificial de la Universidad de Montreal (Canadá) que fue coganador del Premio Turing con Yann LeCun y Geoffrey Hinton en 2018, Yoshua Bengio. En su discurso inaugural de 2014 en la Conferencia AIG, Bengio sugirió que la creación de una IA con una inteligencia a nivel humano era posible porque el cerebro humano era una máquina, y que solo haría falta descubrir cómo hacerlo. Pero no le convencía la idea de la superinteligencia, de una máquina que supera a la mente humana. De cualquier manera, Bengio cree que la IAG no se logrará a menos que encontremos una manera de darles a los ordenadores el sentido común e inferencia causal. 

Ng, por otra parte, insiste en que tampoco está en contra de la AIG. Y afirma: "Creo que la AIG es muy interesante, me encantaría llegar a verla. Si tuviera mucho tiempo libre, trabajaría en ello yo mismo". Cuando estaba en Google Brain y el aprendizaje profundo iba viento en popa, Ng, como OpenAI, se preguntaba si simplemente ampliar las redes neuronales podría ser un camino hacia la IAG. "Pero son preguntas, no declaraciones. La IAG generó polémica cuando la gente comenzó a hacer afirmaciones específicas sobre ella", subraya.

Un tema aún más polémico que la estimación de cuándo se podría lograr la IAG es el alarmismo sobre lo que podría provocar si no se controla. Aquí se mezclan la especulación y la ciencia ficción. Musk cree que la IAG será más peligrosa que las armas nucleares.  El investigador de inteligencia artificial de la Universidad de Wuhan (China) Hugo de Garis predijo en la década de 2000 que la IAG conduciría a una guerra mundial y a "miles de millones de muertes" para finales de este siglo. Las máquinas parecidas a dioses, a las que denominó "artilectos", se aliarían con los partidarios humanos, los Cosmistas, en contra de la resistencia humana, los Terranos. 

"Creer en la IAG es como creer en la magia. Es una forma de abandonar el pensamiento racional y expresar esperanza / miedo por algo que no se puede entender".

Que alguien piense como Garis, quien también es partidario abierto de puntos de vista de "masculinismo" y antisemitas, tiene un artículo en el libro sobre la IAG de Goertzel junto con otros de investigadores serios como Hutter y Jürgen Schmidhuber (a veces llamado "el padre de la IA moderna"), no es gran ayuda para el campo proIAG. Mientras muchos del campo de la IAG se ven a sí mismos como portadores de la antorcha de la IA, otros tantos fuera de él los ven como lunáticos declarados, lanzando pensamientos sobre la IA junto con ideas sobre la singularidad (el punto sin retorno cuando las máquinas que se auto-mejoran superan a la inteligencia humana), cargas cerebrales, transhumanismo y el apocalipsis.

Togelius afirma: "No me molesta la muy interesante discusión sobre las inteligencias, de las que deberíamos tener más. Me molesta la ridícula idea de que nuestro software se despierte un día y se apodere del mundo".

¿Por qué es importante?

Hace unas décadas, cuando la IA no cumplió las expectativas de Minsky, el campo se estrelló más de una vez. La financiación desapareció; los investigadores se pasaron a otro campo. La tecnología tardó muchos años en salir de lo que se conocía como el "invierno de la IA" y reafirmarse. Sin embargo, ese bombo sigue ahí.

Ng afirma: "Todos los inviernos de IA fueron creados por expectativas poco realistas, así que debemos luchar contra ellas en todo momento". Pesenti está de acuerdo: "Debemos gestionar esos rumores".

Una preocupación más inmediata es que estas expectativas poco realistas afectan la toma de decisiones de los políticos. Bryson asegura haber presenciado muchos debates confusos en salas de juntas y en gobiernos porque los participantes tenían una visión de la IA más propia de la ciencia ficción. Esto puede llevarlas a ignorar problemas muy reales no resueltos (como la forma en la que se puede introducir el sesgo racial en la IA mediante los datos de entrenamiento parciales, la falta de transparencia sobre cómo funcionan los algoritmos o las dudas sobre quién es responsable cuando una IA toma una mala decisión) llegando a las preocupaciones más futuristas sobre cosas como que los robots tomarán el poder.

El bombo también entusiasma a los inversores. El dinero de Musk ha ayudado a financiar la innovación real, pero cuando dice que quiere financiar el trabajo sobre el riesgo existencial, eso hace que todos los investigadores presenten su trabajo en términos de las amenazas para el futuro lejano. Bryson opina: "Algunos de ellos realmente lo creen; otros solo buscan el dinero y la atención y cualquier otra cosa. Y no sé si todos ellos son completamente honestos consigo mismos sobre lo que representan".

La fascinación por la IAG no es sorprendente. La autorreflexión y la creación son dos de las actividades más humanas. El impulso para construir una máquina parecida a nosotros mismos es irresistible. Muchas personas que actualmente son críticas con la IAG jugaron con esa idea en sus inicios. Al igual que Goertzel, Bryson pasó varios años tratando de crear un bebé artificial. En 2005, Ng organizó un taller en la principal conferencia de IA del mundo NeurIPS (entonces NIPS), titulado ¿Hacia la IA a nivel humano? "Fue una locura", admite Ng. LeCun, ahora un crítico frecuente de la idea de la IAG, dio el discurso inaugural. 

Estos investigadores pasaron a problemas más prácticos. Pero gracias al avance que han conseguido, las expectativas han vuelto a aumentar. Legg señala: "Mucha gente en el campo no esperaba tanto progreso como el que hemos tenido en los últimos años. Ha sido una fuerza impulsora para que la IAG sea mucho más creíble".

Incluso los escépticos de la IAG admiten que el debate al menos obliga a los investigadores a pensar en la dirección del campo en general en vez de centrarse en el próximo ataque o hito de la red neuronal. Togelius concluye: "Considerar seriamente la idea de la IAG nos lleva a lugares fascinantes. Quizás el mayor avance sea perfeccionar el sueño, tratar de averiguar de qué iba ese sueño".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Cómo la IA se convirtió en el juguete roto de la investigación científica

    Pocos estudios de inteligencia artificial comparten la información necesaria para que la comunidad intente replicar sus resultados. Y, cuando lo hacen, los investigadores académicos no disponen de los recursos necesarios para reproducir las investigaciones. La crisis de replicación del sector está lastrando sus avances y abre la puerta a graves consecuencias para los usuarios de los algoritmos

  2. Una nueva IA resume 'papers' de investigación en una sola frase

    Gracias a los últimos avances en procesamiento del lenguaje natural, el motor de búsqueda de literatura científica Semantic Scholar ahora incluye un nuevo modelo de inteligencia artificial que ofrece un breve extracto sobre cada artículo científico para ayudar a los investigadores en su día a día

  3. Google descubre un fallo vital en el proceso de entrenamiento de la IA

    La infraespecificación consiste en que las pequeñas variaciones arbitrarias que aparecen en los modelos a medida que entrenan impiden garantizar su buen funcionamiento en el mundo real. Este grave problema sugiere que habría que replantear todo el proceso de evaluación de las redes neuronales