.

OpenAI blog

Robótica

La IA discute contra sí misma para demostrar que no es maligna

1

A un humano le puede resultar imposible supervisar el proceso de toma de decisiones de una inteligencia artificial. Un grupo de expertos propone que cada sistema debata con otro mediante el lenguaje natural para ayudar a que una persona juzgue las intenciones de sus acciones

  • por Will Knight | traducido por Mariana Díaz
  • 14 Mayo, 2018

Puede que algún día, el hecho de que un sistema de inteligencia artificial (IA) se pelee consigo mismo sea algo completamente normal. Este es el futuro que plantean los investigadores de OpenAI, una organización sin ánimo de lucro fundada por varias eminencias de Silicon Valley (EE. UU.), como el socio de Y Combinator Sam Altman, el presidente de LinkedIn, Reid Hoffman, el miembro de la junta de Facebook y fundador de Palantir, Peter Thiel, y el jefe de Tesla y SpaceX, Elon Musk (y que se creó con el objetivo concreto de evitar la que IA se rebele contra la humanidad).

OpenAI ha demostrado que los sistemas de IA que se entrenan a sí mismos pueden desarrollar hábitos inesperados e indeseados. Por ejemplo, en un juego de ordenador, un software puede descubrir cómo aprovechar los fallos del juego para obtener una puntuación más alta. En algunos casos, es posible que alguien supervise el proceso de entrenamiento, pero si el programa de IA está haciendo algo muy complejo para los humanos, la supervisión no podría detectarlo. Así que los investigadores sugieren que haya dos sistemas que debatan sobre cómo conseguir un objetivo en particular.

En una publicación de blog, los investigadores de OpenIA afirman: "Creemos que este enfoque, o uno similar, podría ayudarnos a entrenar sistemas de inteligencia artificial para que realicen tareas cognitivamente más avanzadas de las que los humanos son capaces de hacer, pero sin salirse de los intereses humanos". Por ejemplo, considere una IA diseñada para defenderse contra hackers humanos o de inteligencia artificial. Para evitar que el sistema haga algo dañino o poco ético, habría que obligarle a que explique por qué ha llevado a cabo una acción en particular. Pero su razonamiento ser demasiado complejo para la comprensión humana, así que los investigadores proponen que sea otra IA la que debata la lógica de la acción con el primer sistema. Para llevar a cabo ese debate, ambos sistemas emplearían el lenguaje natural para que una persona pudiera seguir la conversación. Este artículo de investigación ofrece más detalles sobre este nuevo enfoque.

Para que dos sistemas de IA puedan discutir entre ellos hace falta una tecnología más sofisticada de la que tenemos actualmente. Hasta ahora, los investigadores de OpenAI solo han probado la idea con un par de ejemplos muy simples. Uno involucra a dos inteligencias artificiales que intentan convencer a un observador de la identidad de un personaje oculto del que, poco a poco, van revelando píxeles individuales.

Los investigadores han creado una página web donde dos personas pueden emplear los roles de los dos sistemas de inteligencia de debate mientras que un tercero hace de juez. Los dos participantes compiten para convencer al juez sobre la naturaleza de una imagen y resaltar partes de ella. De esta forma, al juez le resulta fácil identificar cuál de los dos es el más honesto.

El investigador de la Universidad de Duke (EE. UU.) Vincent Conitzer, que estudia problemas éticos relacionados con la IA, dice que aunque el trabajo está en una etapa inicial, parece prometedor. El experto detalla: "Crear sistemas de IA capaces de explicar sus decisiones es una tarea desafiante. Si esto tiene éxito, podría aportar mucho al uso responsable de la IA", señala Conitzer.

A pesar de algunas declaraciones extravagantes de Elon Musk (un financiador de OpenAI y hasta hace poco miembro de su junta directiva), aún estamos muy lejos de tener una inteligencia artificial capaz de engañarnos como plantean algunas películas de ciencia ficción como  Ex Machina y Her.

De todas formas, algunos investigadores todavía están buscando formas de garantizar que la tecnología no desarrolle comportamientos involuntarios. Estas herramientas se volverán cada vez más imprescindibles a medida que los programas de IA se vuelven más complejos y difíciles de comprender para la mente humana (ver El secreto más oscuro de la inteligencia artificial: ¿por qué hace lo que hace?).

El profesor de ciencias de la computación de la Universidad Carnegie Mellon (EE. UU.) Ariel Procaccia, que estudia la toma de decisiones con sistemas autónomos, afirma: "Creo que la idea de alinear valores a través del debate es muy interesante y potencialmente útil". Pero también señala que el trabajo está en una fase muy preliminar y que propio el concepto podría ser contradictorio. Procaccia advierte: "Para debatir cuestiones cargadas de valores de una manera que resulte comprensible para un juez humano, los agentes de inteligencia artificial deben, en primer lugar, tener una sólida comprensión de los valores humanos. Así que, sin duda, el enfoque es como empezar la casa por el tejado".

El investigador del MIT Media Lab (EE. UU.) Iyad Rawan añade que los investigadores deben asegurarse que de las dos IA no acaben enredadas en una conversación de besugos. Rawan afirma: "Creo que [los investigadores] no tardarán en toparse con algunos obstáculos difíciles. Lo primero que tienen que averiguar es cómo automatizar el debate con lenguaje natural, esto sigue siendo un problema sin resolver".

Robótica

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Ilusiones ópticas: una joya del ojo humano que la IA es incapaz de 'ver'

    La inteligencia artificial puede superar a las personas a la hora identificar caras y objetos, e incluso es capaz de crear versiones propias increíblemente realistas. Pero esta investigación ha descubierto que los sistemas de visión artificial son incapaces de entender y replicar este tipo de imágenes

  2. Pilotos de Uber y sensores 'low cost' para crear el Google Maps del coche autónomo

    En tan solo 24 horas, el ingenioso modelo de negocio de Mapper le permite entregar mapas de cualquier lugar del mundo que cualquier vehículo sin conductor podría usar para navegar. Para ello, contrata a conductores independientes a los que paga por recopilar los datos constantemente

  3. La 'verdad fundamental': la pieza que falta para luchar contra las 'fake news'

    Una nueva investigación ha elaborado un potente enfoque para que la IA identifique automáticamente las noticias falsas. Para que funcione correctamente necesita más ejemplos de contenidos veraces y de bulos pero, ¿cómo se define y detecta la verdad en su sentido más básico?