.

Escuela Politécnica | Flickr

Robótica

"Debemos lograr que los robots asesinos se vean como algo inmoral"

1

Al experto mundial en inteligencia artificial Yoshua Bengio le preocupa que la tecnología se concentre en unas pocas manos y que se use con fines militares ofensivos. No se ha dejado seducir por los sueldos de la industria, y defiende que la academia es el mejor entorno para liderar los avances de la IA

  • por Will Knight | traducido por Ana Milutinovic
  • 21 Noviembre, 2018

Yoshua Bengio es uno de los grandes maestros de la inteligencia artificial (IA) moderna (ver "Las máquinas son tontísimas, solo intentamos que lo sean un poco menos"). 

Junto a los investigadores Geoffrey Hinton (el padre del aprendizaje automático) y Yann LeCun (el hombre que enseña a las máquinas a entender el lenguaje), Bengio es famoso por defender la técnica conocida como aprendizaje profundo. En los últimos años, este enfoque ha pasado de ser una curiosidad académica a una de las tecnologías más poderosas del planeta (ver "La revolución del aprendizaje profundo en la inteligencia artificial ha sucedido demasiado rápido").

El aprendizaje profundo requiere introducir grandes volúmenes de datos en grandes redes neuronales que simulan el cerebro humano. El enfoque ha demostrado ser increíblemente poderoso y efectivo para todo tipo de tareas prácticas, desde el reconocimiento de voz y de imágenes hasta el control de coches autónomos y la automatización de decisiones de negocio.

A diferencia de Hinton y LeCun, quienes se unieron a Google y a Facebook, respectivamente, Bengio ha resistido el reclamo de grandes empresas de tecnología y mantiene su puesto de profesor de tiempo completo en la Universidad de Montreal (Canadá). Además, en 2016 cofundó Element AI como un negocio muy exitoso para ayudar a las grandes empresas a explorar las aplicaciones comerciales de la inteligencia artificial.

Bengio habló recientemente con el editor jede de MIT Technology Review para IA, Will Knight, en un evento del MIT (EE.UU.).

¿Qué opina de que distintos países estén embarcados en una carrera por liderar la inteligencia artificial?

No me gusta. No creo que sea lo correcto. Podríamos participar en la carrera de forma colectiva. Pero como científico y persona enfocada en el bien común, creo que es mejor pensar en construir máquinas más inteligentes y asegurarnos de que la inteligencia artificial se utiliza para beneficiar al mayor número posible de personas.

¿Cómo se podría fomentar la colaboración entre países?

Podríamos hacer que a las personas de países en vías desarrollo les resulte más fácil emigrar. Es problema muy grave ahora mismo. A un investigador africano le cuesta mucho obtener visados para Europa, Estados Unidos o Canadá. Es una lotería, y en muchas ocasiones se usará cualquier excusa para negar la entrada. Es totalmente injusto. Ya les resulta bastante difícil investigar con pocos recursos, pero si además no pueden acceder a la comunidad, me parece algo realmente injusto. Para contrarrestarlo, en 2020 vamos a organizar el evento ICLR [una importante conferencia sobre IA] en África. 

La inclusión tiene que ser más que una palabra que decimos para quedar bien. El potencial para que la IA sea útil en el mundo en desarrollo es aún mayor. Necesitan mejorar su tecnología incluso más que nosotros, y tienen necesidades diferentes.

¿Le preocupa que solo un puñado de empresas de inteligencia artificial, en Occidente y quizás China, dominen todo el sector?

Sí, es otra razón por la que necesitamos más democracia en la investigación de IA, ya que la investigación de la IA en sí misma tenderá a generar concentraciones de poder, dinero e investigadores. Los mejores estudiantes quieren ir a las mejores empresas. Estas compañías tienen mucho más dinero y  muchos más datos. Y esto no es saludable. Incluso en una democracia, es peligroso que el poder se concentre en unas pocas manos. 

Ha habido mucha controversia sobre los usos militares de la IA. ¿Cuál es su postura sobre eso?

Estoy muy firmemente en contra. 

¿Incluso contra los usos no letales de la IA?

Bueno, no quiero prevenir eso. Creo que debemos lograr que los robots asesinos sean algo inmoral. Debemos cambiar la cultura, y eso incluye cambiar las leyes y tratados. Eso puede servir de mucho.

Por supuesto, nunca se impedirá por completo, y habrá gente que diga: "Algún país desalmado va a desarrollar ese tipo de cosas". Mi respuesta es que, primero: queremos que se sientan culpables por hacerlo, y segundo: nada nos impide construir tecnología defensiva. Hay una gran diferencia entre las armas defensivas que contra drones y las armas ofensivas dirigidas a los humanos. Ambas pueden usar la IA.

¿No deberían los expertos de la IA colaborar con los militares para garantizar que esto sea así? 

Si tuvieran los valores morales correctos, de acuerdo. Pero no confío demasiado en las organizaciones militares, tienden a imponer el deber antes que la moral. Ojalá fuera diferente.

¿Qué es lo que más le entusiasma de las nuevas investigaciones de IA? 

Creo que debemos considerar los difíciles desafíos de la IA y no conformarnos con los avances incrementales a corto plazo. No estoy diciendo que haya que olvidarse del aprendizaje profundo. Al contrario, quiero construir sobre él. Pero necesitamos poder extenderlo para hacer cosas como razonar, descubrir relaciones causa-efecto y explorar el mundo para aprender y adquirir información.

Pero si lo que queremos es acercar la IA a un nivel humano, eso es otra historia. Necesitamos inversiones a largo plazo, y creo que la academia es el mejor actor para liderar esos avances. 

Ha mencionado las relaciones causa-efecto; en otras palabras, la posibilidad captar no solo los patrones en los datos, sino también el por qué sucede algo. ¿Por qué es eso tan importante y tan difícil?

Si tienes un buen modelo causal del mundo con el que tratas, puedes hacer generalizaciones incluso en situaciones desconocidas. Eso es algo crucial. Los humanos somos capaces de proyectarnos en situaciones muy diferentes a nuestra experiencia cotidiana. Las máquinas no son así, porque no tienen estos modelos causales.

Podemos crearlos a mano, pero no es suficiente. Necesitamos máquinas capaces descubrir los modelos causales. Hasta cierto punto, nunca va a ser perfecto. No tenemos un perfecto modelo causal de la realidad; y es por eso que cometemos muchos errores. Pero lo hacemos mucho mejor que otros animales.

En este momento no tenemos buenos algoritmos para hacer esto, pero creo que si el número suficiente de personas trabajan en ello y lo consideran importante, haremos avances.

Robótica

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Alibaba reta a Google con una IA que conversa como los humanos

    El gigante del comercio electrónico chino ha demostrado la asombrosa capacidad de su asistente de voz inteligente para comprender el lenguaje natural. Usado para charlar con los clientes sobre la entrega de paquetes, este agente es un duro rival para Duplex, la IA parlante de Google

  2. Un laboratorio robótico para crear nuevos materiales revolucionarios

    La 'start-up' Kebotix ha desarrollado un sistema que combina inteligencia artificial y robótica con el fin de diseñar nuevos compuestos químicos. El objetivo es idear materiales útiles que sirvan para absorber la contaminación o combatir algunas infecciones 

  3. La falta de coordinación deja a Europa a la cola de la carrera por la IA

    La coordinación público-privada, la financiación y la abundancia de datos de China y EE. UU. contrasta con la falta de estrategia común del viejo continente. Pero su diversidad de talento y sus valores pueden convertirla en líder del desarrollo ético de la inteligencia artificial