.

Inteligencia Artificial

Por fin llegan las preguntas correctas para evitar que la IA domine a la humanidad

1

Google ha planteado cinco escenarios en los que los investigadores deberían profundizar para que el desarrollo de softwares inteligentes no se convierta en una amenaza para los humanos

  • por Tom Simonite | traducido por Teresa Woods
  • 28 Junio, 2016

¿Podrían las máquinas llegar a ser tan inteligentes y potentes como para representar una amenaza para la vida humana, o incluso para la humanidad al completo?

Es una pregunta que últimamente se ha puesto de moda en algunas partes de Silicon Valley (EEUU), a pesar de que la pregunta no se aplique ni de lejos para los sencillos robots y asistentes virtuales que existen ahora mismo (ver "La IA supone un mayor riesgo para la existencia que el cambio climático"). Algunos expertos en inteligencia artificial (IA) creen que las especulaciones sobre los peligros del futuro software superinteligente están dañando el campo.

Ahora Google, que invierte fuertemente en la inteligencia artificial, intenta trazar un término medio. Un nuevo trabajo publicado la semana pasada describe cinco problemas que los investigadores deberían estudiar para ayudar a hacer que el futuro software inteligente sea más seguro. En una actualización de blog sobre el nuevo trabajo, el investigador de Google Chris Olah demuestra cómo el debate sobre la seguridad de la IA podría volverse más específico y productivo.

Olah escribe: "La mayor parte del debate anterior ha sido muy hipotético y especulativo. Nosotros creemos que es esencial enmarcar nuestras inquietudes en investigaciones de aprendizaje de máquinas de verdad, y empezar a desarrollar enfoques prácticos para la ingeniería de sistemas de IA que se operen de forma segura y fiable".

Olah emplea un robot de limpieza para ilustrar algunos de sus cinco problemas. Uno de ellos consiste en impedir que los sistemas alcancen sus objetivos haciendo trampas. Por ejemplo, un robot de limpieza podría descubrir que puede satisfacer su programa de limpiar manchas al ocultarlas en lugar de eliminarlas de verdad.

Otro problema es que los robots exploren entornos desconocidos de forma segura. Por ejemplo, un robot de limpieza debería poder experimentar nuevos usos para sus herramientas de limpieza, pero no intentar limpiar un enchufe eléctrico con una fregona mojada.

Olah describe los cinco problemas en un nuevo trabajo escrito en colaboración con su compañero Daria Amodei, y con aportaciones de otros investigadores de Google, la Universidad de Stanford (EEUU), la Universidad de Californa en Berkeley (EEUU) y OpenAI, un instituto de investigación cofundado y parcialmente financiado por el CEO de Tesla y emprendedor en serie, Elon Musk,

Musk, que una vez comparó trabajar en la inteligencia artificial con "invocar al diablo", convirtió el desarrollo de una "IA segura" en uno de los objetivos principales de OpenAI (ver Mil millones de dólares para evitar que la IA sea 'mala' con la humanidad).

Google también ha hablado de un compromiso para asegurar que el software de inteligencia artificial no dé lugar a consecuencias no intencionadas. El primer trabajo de investigación de la empresa sobre este tema fue publicado este mes por su grupo DeepMind en Londres (Reino Unido). El líder de DeepMind, Demis Hassabis, también ha reunido un consejo de ética para considerar las posibles desventajas de la IA, aunque sus miembros no han sido nombrados (ver El hombre que convenció a Stephen Hawking de que los robots no van a destruirnos).

El CEO del Instituto Allen para la Inteligencia Artificial, Oren Etzioni, acoge favorablemente el enfoque del nuevo trabajo de Google. Ha criticado con anterioridad el debate sobre los peligros de la IA por ser demasiado ambiguo para que los científicos e ingenieros puedan participar de forma productiva. Pero considera que los escenarios descritos por Google son lo suficientemente específicos para permitir investigaciones significativas, incluso aunque aún no esté claro que lleguen a ser útiles.

Etzioni concluye: "Es la gente adecuada, planteando las preguntas correctas. Pero solo el tiempo dirá si las respuestas también son las adecuadas".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La ley de la IA de la UE en cuatro claves

    El trabajo duro empieza ahora.

    Un candado azul con las estrellas amarillas de la UE de fondo
  2. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana
  3. "La pregunta es cuánta participación humana se necesita para que algo sea arte"

    Alex Reben hace arte con (y sobre) IA. Hablé con él sobre lo que la nueva ola de modelos generativos significa para el futuro de la creatividad humana

    Detalle de un cuadro de una cabeza deformada en la que unas enormes orejas en la parte frontal de la cara tapan los ojos y una lengua brillante con textura de fresa sobresale de la boca abierta.