.

Computación

La inteligencia artificial no destruirá a la humanidad, de momento

1

La creación de una IA auténtica podría acabar con el mundo, pero para eso primero tiene que ser posible

  • por Paul Ford | traducido por Lía Moya
  • 12 Febrero, 2015


Hace años estaba tomando un café con un amigo que dirigía una start-up. Acababa de cumplir 40 años. Su padre estaba enfermo, le dolía la espalda y se veía superado por la vida. "No te rías de mí", me dijo, "pero contaba con que ya existiera la singularidad".

Mi amigo trabajaba en tecnología. Había asistido a los cambios producidos por la llegada de microprocesadores más rápidos y las redes. No tenía que echarle demasiada imaginación para creer que, antes de llegar a la mediana edad, la inteligencia de las máquinas superaría la de los humanos, un momento que los futuristas han bautizado como singularidad. Una superinteligencia benévola capaz de analizar el código genético humano a gran velocidad y desvelar el secreto de la eterna juventud. O que por lo menos sepa cómo arreglarte la espalda.

Pero, ¿qué pasaría si no fuera tan benévola? El filósofo y director del Instituto del Futuro de la Humanidad de la Universidad de Oxford (Reino Unido), Nick Bostrom, describe la siguiente situación en su libro Superintelligence, que ha despertado numerosos debates en torno al futuro de la inteligencia artificial: Imagina una máquina que podemos llamar "maximizador de clips de papel". Es decir, una máquina programada para hacer el mayor número de clips posible. Ahora imagina que de alguna forma esta máquina se vuelve increíblemente inteligente. Dados sus objetivos, podría decidir crear nuevas máquinas productoras de clips más eficientes hasta que, al estilo del Rey Midas, lo hubieran convertido básicamente todo en clips.

No pasa nada, podrías decir, se puede programar la máquina para que fabrique exactamente un millón de clips y se detenga. ¿Pero qué pasa si los fabrica y entonces decide comprobar su trabajo? ¿Los ha contado correctamente? Tiene que ser más inteligente para estar segura. La máquina superinteligente fabrica un material de computación en crudo que aún no se ha inventado (llamémoslo "computronio") y lo usa para comprobar cada duda. Pero cada duda da lugar a más dudas digitales y así sucesivamente hasta que toda la tierra se convierte en computronio. Excepto el millón de clips.

Bostrom no cree que el maximizador de clips acabe siendo una realidad, no exactamente. Es un experimento teórico, diseñado para demostrar cómo incluso un cuidadoso diseño de los sistemas puede fracasar a la hora de controlar la inteligencia automática extrema. Sin embargo, sí que cree que puede surgir una superinteligencia y que, aunque podría ser genial, también podría decidir que no necesita a los humanos para nada. O hacer cualquier otra serie de cosas que acaben por destruir el mundo. El capítulo 8 de su libro se titula: "¿El resultado por defecto es la destrucción?"

Si esto te parece ridículo, no eres el único. Los críticos como el pionero de la robótica Rodney Brooks afirman que quienes temen a una IA que toma las cosas por su mano no entienden lo que hacen los ordenadores cuando decimos que piensan o que son más inteligentes. Desde este punto de vista, la superinteligencia putativa descrita por Bostrom queda muy lejos en el futuro y quizá sea imposible del todo. 

Sin embargo, mucha gente inteligente y reflexiva está de acuerdo con Bostrom y está preocupada. ¿Por qué?

Voluntad

La pregunta "¿Una máquina es capaz de pensar?" ha estado presente en la computación desde sus principios. En 1950 Alan Turing propuso que se podía enseñar a las máquinas como a los niños. John McCarthy, inventor del lenguaje de programación LISP acuñó el término "inteligencia artificial" en 1955. Cuando, durante las décadas de 1960 y 1970, los investigadores en IA empezaron a usar ordenadores para reconocer imágenes, traducir idiomas y comprender instrucciones en lenguaje natural y no sólo código, la idea de que los ordenadores acabarían desarrollando la capacidad de hablar y pensar -y por lo tanto de hacer el mal- llegó a la cultura popular. Más allá del comúnmente citado ordenador HAL de 2001: Una odisea en el espacio, la película de 1970 Colossus: el proyecto prohibido contaba con un gran ordenador central lleno de luces parpadeantes que lleva al mundo al borde de la destrucción nuclear, un tema que se vuelve a explorar 13 años después en Juegos de guerra. Los androides de la película de 1973 Westworld, almas de metal, se vuelven locos y empiezan a matar.

Cuando la investigación en IA se quedó muy lejos de sus aspiraciones, quedó reducida prácticamente a nada dando lugar a un largo "invierno de la IA". Aún así, durante las décadas de 1980 y 1990, los autores de ciencia ficción como Vernor Vinge, quien popularizó el concepto de la singularidad, continuaron portando la antorcha de la máquina inteligente; investigadores como el robotista Hans Moravec, experto en visión automática, y el ingeniero/emprendedor Ray Kurzweil, autor del libro de 1999 La era de las máquinas espirituales. Mientras Turing había planteado la posibilidad de una inteligencia similar a la humana, Vinge, Moravec y Kurzweil pensaban a lo grande: cuando un ordenador fuese capaz de pensar independientemente formas de conseguir objetivos, muy probablemente sería capaz de la introspección y por lo tanto de poder modificar su software y hacerse a sí misma más inteligente. En muy poco tiempo, un ordenador de este tipo podría diseñar su propio hardware.

En la descripción de Kurzweil esto daría lugar a una maravillosa era nueva. Estas máquinas tendrían el conocimiento y la paciencia (medida en picosegundos) para resolver los problemas más destacados de la nanotecnología y los vuelos espaciales; mejorarían la condición humana y nos permitirían cargar nuestra conciencia a una forma digital inmortal. La inteligencia se difundiría por el cosmos.

También se encuentra el polo opuesto a este optimismo desmedido. Stephen Hawking ha avisado de que, dado que las personas no podrían competir con la IA avanzada, “podría suponer el fin de la raza humana”. Al leer Superintelligence, el emprendedor Elon Musk escribió el siguiente tuit: "Espero que seamos algo más que el motor de arranque biológico para la superinteligencia digital. Desgraciadamente, cada vez es más probable". A continuación Musk concedió 10 millones de dólares (unos 8,8 millones de euros) al Instituto El Futuro de la Vida, que no debe confundirse con el centro de Bostrom ya que es una organización que afirma "trabajar para mitigar los riesgos existenciales a los que se enfrenta la humanidad", los que podrían surgir "del desarrollo de inteligencia artificial a nivel humano".

Nadie sugiere que haya algo parecido a la superinteligencia ya. De hecho, aún no tenemos nada que se parezca un poco a una inteligencia artificial de uso general, o un camino claro para alcanzarla siquiera. Avances recientes en IA, desde los ayudantes como Siri de Apple hasta los coches sin conductor de Google también revelan las graves limitaciones de la tecnología; en ambos casos pueden perder el norte ante situaciones de las que no tienen experiencia previa. Las redes neuronales artificiales son capaces de aprender ellas solas a reconocer gatos en fotos. Pero tienen que ver antes cientos de miles de ejemplos y aún así siguen siendo mucho menos precisas a la hora de detectar un gato que cualquier niño.

Aquí es donde entran escépticos como Brooks, fundador de iRobot y Rethink Robotics. Aunque resulte impresionante que un ordenador reconozca una foto de un gato (comparado con lo que permitían ordenadores anteriores), la máquina no tiene ninguna voluntad, ninguna idea de qué supone la "felinidad" o qué más pasa en la foto, ni ninguno de los innumerables pensamientos relacionados que tienen los humanos. Visto así, la IA sí podría dar lugar a máquinas inteligentes, pero haría falta mucho más trabajo que el que imaginan las personas como Bostrom. E incluso aunque pudiera suceder, la inteligencia no dará lugar necesariamente a la conciencia. Extrapolar, partiendo del estado de la IA actual, la idea de que la superinteligencia está a punto de llegar es "comparable a ver aparecer máquinas de combustión interna más eficientes y llegar a la conclusión de que los viajes en el tiempo están a la vuelta de la esquina", escribió hace poco Brooks en Edge.org. "La IA malévola" no tiene por qué preocuparnos, afirma, al menos no durante unos cuantos siglos.

Póliza de seguros

Pero incluso aunque las probabilidades de que surja una superinteligencia sean muy escasas, quizá sea irresponsable arriesgarse. Una de las personas que comparte la preocupación de Bostrom es el profesor de informática de la Universidad de California en Berkeley (EEUU), Stuart J. Russell. Russel escribió, junto con Peter Norvig (compañero de Kurzweil en Google), Inteligencia Artificial, que ha sido el libro de texto estándar sobre IA durante dos décadas.

"Hay un montón de intelectuales supuestamente informados que no tienen ni idea", me dijo Russell. Y señaló que la IA ha avanzado muchísimo en la última década, y que aunque el público pueda ver el progreso más en términos de la Ley de Moore (ordenadores más rápidos hacen más), de hecho, los últimos trabajos sobre IA han sido fundamentales, gracias a técnicas como el aprendizaje profundo, para establecer la base para ordenadores capaces de aumentar automáticamente su comprensión del mundo que los rodea.

Dado que Google, Facebook y otras empresas buscan activamente crear una máquina inteligente "capaz de aprender", razona, "yo diría que una de las cosas que no deberíamos hacer es seguir adelante a toda máquina en la construcción de la superinteligencia sin pararnos a pensar en los riesgos potenciales. Parece un poco estúpido". Russell propuso una analogía: "Es como la investigación en fusión. Si le preguntas a un investigador en fusión qué es lo que hace, te dirá que trabaja en contención. Si quieres energía ilimitada, más te vale poder contener la reacción de la fusión". De forma parecida, sigue, si quieres inteligencia ilimitada, será mejor que averigües cómo colocar a los ordenadores en línea con las necesidades humanas.

El libro de Bostrom es una propuesta de investigación para hacerlo. Una superinteligencia sería parecida a un dios, pero, ¿la movería la ira o el amor? Eso depende de nosotros (es decir, los ingenieros). Como cualquier padre, debemos darle a nuestro hijo una serie de valores. Y no cualquier valor, sino aquellos que van a favor de los intereses de la humanidad. Básicamente estamos diciéndole a un dios cómo queremos que nos traten ¿Cómo hacerlo?

Bostrom se apoya mucho en la idea de un pensador llamado Eliezer Yudkowsky que habla sobre la "voluntad coherente extrapolada", el "mejor yo" de toda la humanidad, al que se llegaría por consenso. Esperamos que la IA quiera darnos vidas ricas, completas y satisfactorias: que nos arregle la espalda y nos enseñe cómo llegar a Marte. Y puesto que los humanos nunca estarán plenamente de acuerdo en nada, a veces necesitaremos que decida por nosotros, para que tome las mejores decisiones para la humanidad en general. ¿Cómo programamos entonces esos valores en nuestras superinteligencias (potenciales)? ¿Qué clase de matemáticas podrían definirlas? Estos son los problemas que deberían estar resolviendo los investigadores ahora, según Bostrom. Afirma que es "la tarea esencial de nuestra época".

Ahora mismo las personas corrientes no tienen por qué pasar las noches en blanco pensando en robots aterradores. No tenemos ninguna tecnología que se acerque, ni de lejos, a la superinteligencia. Pero por otra parte muchas de las empresas más grandes del mundo están profundamente interesadas en hacer que sus ordenadores sean más inteligentes. Una IA auténtica daría a cualquiera de estas empresas una ventaja increíble. También deberían conocer sus inconvenientes potenciales y saber cómo evitarlos.

Esta sugerencia un poco más sutil, que no habla de la catástrofe inminente que llegará de la mano de la IA, es la base de una carta abierta en el sitio web del Instituto El Futuro de la Vida, el grupo que recibió el donativo de Musk. En vez de avisar de un desastre existencial, la carta pide más investigación para cosechar los beneficios de la IA "al mismo tiempo que se evitan los posibles contratiempos". Esta carta está firmada no sólo por personas no relacionadas con la IA como Hawking, Musk y Bostrom, sino también por importantes investigadores en computación (entre ellos Demis Hassabis, uno de los principales investigadores en IA). Se entiende por qué. Después de todo, si desarrollan una inteligencia artificial que no comparte los mejores valores humanos, significará que no fueron lo suficientemente inteligentes como para controlar sus propias creaciones.

Paul Ford, escritor 'freelance' de New York, escribió sobre Bitcoin en febrero de 2014.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. ‘Chiplets’: el arma de China en su batalla tecnológica contra EE UU

    Al conectar varios chips menos avanzados en uno, las empresas chinas podrían eludir las sanciones impuestas por el gobierno estadounidense.

  2. Esta ciudad china quiere ser el Silicon Valley de los ‘chiplets’

    Wuxi, el centro chino del envasado de chips, está invirtiendo en la investigación de ‘chiplets’ para potenciar su papel en la industria de semiconductores

  3. La computación cuántica se abre camino a través del ruido

    Durante un tiempo, los investigadores pensaron que tendrían que conformarse con sistemas ruidosos y propensos a errores, al menos a corto plazo. Esto está empezando a cambiar.

    Jay Gambetta dirige el desarrollo de los ordenadores cuánticos de IBM y lideró la iniciativa de llevar estos sistemas a la nube.