.

Computación

"La IA supone un mayor riesgo para la existencia que el cambio climático"

1

El filósofo Nick Bostrom afirma que el futuro de la inteligencia artificial puede ser muy bueno o muy malo, sin punto medio

  • por Tom Simonite | traducido por Lía Moya
  • 08 Abril, 2015

Foto: Nick Bostrom

A lo largo del último año, el profesor de filosofía de la Universidad de Oxford (Reino Unido) Nick Bostrom se ha dado a conocer por avisar de los riesgos potenciales que plantean formas más avanzadas de inteligencia artificial (IA). Ahora afirma que las empresas que se dedican a explorar los límites de la investigación en inteligencia artificial empiezan a hacer caso de sus advertencias.

Muchos de los que trabajan en IA se muestran escépticos o incluso hostiles hacia las ideas de Bostrom. Pero desde que apareció su libro sobre el tema el verano pasado, Superintelligence, algunos tecnólogos y científicos importantes, entre ellos Elon Musk, Stephen Hawking y Bill Gates, se han hecho eco de algunas de sus preocupaciones. Google incluso ha creado un comité de ética para supervisar el trabajo que está haciendo en inteligencia artificial.

Bostrom se reunió la semana pasada con el director de la oficina de MIT Technology Review en San Francisco (EEUU), Tom Simonite, para hablar de su esfuerzo por conseguir que los investigadores en inteligencia artificial reflexionen sobre los peligros de su trabajo.

¿Qué te llevó a pensar que la inteligencia artificial es un problema más importante para el mundo que el holocausto nuclear o una pandemia grave, por ejemplo?

Hay muchas cosas que pueden producir catástrofes, pero relativamente pocas de ellas amenazan todo el futuro de la vida inteligente que habita la Tierra. Creo que la inteligencia artificial es una de las mayores y además parece ser una en la que los esfuerzos de un pequeño número de personas, o una unidad extra de recursos puede marcar una diferencia no trivial. En el caso de la guerra nuclear, ya existen un montón de grupos grandes y poderosos que se interesan por el tema.

¿Qué hay del cambio climático, que se considera, en términos generales, el mayor riesgo al que se enfrenta la humanidad ahora mismo?

Es un riesgo existencial muy pequeño. Para que lo sea, nuestros modelos actuales tendrían que equivocarse, dado que incluso los peores escenarios posibles sólo significan que el clima en algunas partes del mundo sería un poco más desfavorable. Y después tendríamos que ser incapaces de remediarlo mediante la geoingeniería, algo que parece poco probable.

Determinadas teorías éticas sostienen que el riesgo existencial es algo mucho más importante. Teniendo esto en cuenta, los esfuerzos dedicados a mitigar el riesgo existencial deberían ser mucho mayores. El mundo invierte mucho más en desarrollar nuevas formas de pintalabios que en el riego existencial.

Si llegara alguien que te dijera: "Mi empresa ha desarrollado una tecnología que parece que podría hacer la inteligencia artificial mucho más potente", ¿qué le aconsejarías?

La primera sugerencia sería que crease algún tipo de equipo interno para la investigación en seguridad de IA. Un punto clave es establecer una buena relación de trabajo entre la gente que trabaja en IA y la gente que está pensando en cuestiones de seguridad. La única forma de que se dé una buena situación es que estas ideas se generen y después se pongan en práctica.

Google, Facebook, y otras grandes empresas de tecnología parecen estar encabezando los progresos en inteligencia artificial. ¿Ya está hablando con ellos?

No quiero dar nombres. Son las empresas que tienen un gran interés por este campo. Creo que hay un reconocimiento de que tiene sentido tener a gente pensando en la seguridad de IA ahora y que, cuando las cosas avancen, hacer que haya más gente aún pensando en ello. Está bien haber plantado una semilla ahí, alguien que vigile estas cosas.

¿Qué clase de investigación se puede hacer sobre algo que ahora mismo está tan lejos de ser realidad?

Lo que se ha conseguido hasta la fecha es que haya una mejor comprensión de cuál es el problema y algunos conceptos que se pueden usar para pensar en estas cosas. Quizá sobre el papel no parezca gran cosa, pero sin ello no se puede pasar a la próxima fase, que es desarrollar una agenda de investigación técnica.

¿Puedes dar un ejemplo de un proyecto técnico que podría estar haciéndolo?

Por ejemplo, ¿se podría diseñar un sistema de motivación de la IA para que la IA no se resista a que el programador llegue y cambie su objetivo? Hay toda una serie de cosas que podrían resultar útiles en términos prácticos, por ejemplo métodos de encasillamiento, herramientas capaces de contener una IA antes de que esté preparada para lanzarse.

Pero eso queda muy lejos de los sistemas que los investigadores de Google por ejemplo están construyendo ahora mismo.

Sí. Uno de los retos es hacer trabajo útil en este campo mucho antes de que tengas un sistema donde se pueda o deba aplicar.

La inteligencia artificial que es muy inferior a la inteligencia humana también podría causar problemas ¿no? Por ejemplo, si un gobierno la usara como arma, o si se metiera en los mercados financieros por accidente.

Hay toda una clase de problemas más inminentes y más pequeños que algunos dicen que son más reales. Los algoritmos para hacer transacciones, o los drones, o la automatización y su impacto sobre los mercados de trabajo, o si los sistemas serían capaces de discriminar queriendo o sin querer basándose en la raza. No niego que esos problemas existan, es que creo que además existe este problema que el mundo podría no abordar porque sólo se convierte en algo grave cuando la IA llega a determinado nivel muy alto.

Avisas de que nadie puede predecir cómo de cerca estamos de llegar a ese nivel. ¿Pero hay avances concretos que indicarían que estamos llegando a alguna parte?

Muy probablemente tengan que darse una serie de grandes avances, conseguir más capacidades de razonamiento de sentido común, capacidades de aprendizaje generales en distintos campos y capacidades de planificación más flexibles.

Ha habido al menos dos periodos en los que una burbuja de entusiasmo en este campo se ha visto desinflada. Es posible que ahora mismo estemos en una tercera época de entusiasmo, que alcancemos un límite de lo que se puede hacer con estas nuevas técnicas y que se tarde mucho en llegar a la próxima gran frontera. Pero esta también podría ser la ola que nos lleve hasta el final.

¿Te muestras optimista respecto a nuestras posibilidades si es así?

Mi visión a largo plazo es que lo más probable es que acabemos en una situación muy mala o bien muy buena, no en un sitio intermedio. Espero que sea en una situación genial.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. La radiación cósmica destruye los cúbits superconductores en milisegundos

    Los componentes básicos de la computación cuántica son tan sensibles que, incluso a niveles bajos, estos rayos provocan su decoherencia. Aunque el hallazgo podría contribuir a la búsqueda de materia oscura, obligará a revestir los ordenadores cuánticos de hormigón o a instalarlos bajo tierra

  2. Criptografía reticular, el cifrado a prueba de ordenadores cuánticos

    La inminente llegada de la computación cuántica amenaza con destruir los métodos tradicionales de cifrado que usamos actualmente. Por ello, distintos grupos trabajan en nuevos enfoques poscuánticos capaces de resistir a estas máquinas. Este es el más prometedor hasta la fecha 

  3. Un nuevo chip inspirado en el cerebro distingue 10 olores diferentes

    Su diseño basado en la estructura y la actividad eléctrica del cerebro, un enfoque conocido como chip neuromórfico, ha aprendido a diferenciar fragancias con gran precisión y pocos ejemplos de entrenamiento. El siguiente paso será replicar el comportamiento de la vista y tacto