.

Escuela Politécnica | Flickr

Inteligencia Artificial

"Debemos lograr que los robots asesinos se vean como algo inmoral"

1

Al experto mundial en inteligencia artificial Yoshua Bengio le preocupa que la tecnología se concentre en unas pocas manos y que se use con fines militares ofensivos. No se ha dejado seducir por los sueldos de la industria, y defiende que la academia es el mejor entorno para liderar los avances de la IA

  • por Will Knight | traducido por Ana Milutinovic
  • 21 Noviembre, 2018

Yoshua Bengio es uno de los grandes maestros de la inteligencia artificial (IA) moderna (ver "Las máquinas son tontísimas, solo intentamos que lo sean un poco menos"). 

Junto a los investigadores Geoffrey Hinton (el padre del aprendizaje automático) y Yann LeCun (el hombre que enseña a las máquinas a entender el lenguaje), Bengio es famoso por defender la técnica conocida como aprendizaje profundo. En los últimos años, este enfoque ha pasado de ser una curiosidad académica a una de las tecnologías más poderosas del planeta (ver "La revolución del aprendizaje profundo en la inteligencia artificial ha sucedido demasiado rápido").

El aprendizaje profundo requiere introducir grandes volúmenes de datos en grandes redes neuronales que simulan el cerebro humano. El enfoque ha demostrado ser increíblemente poderoso y efectivo para todo tipo de tareas prácticas, desde el reconocimiento de voz y de imágenes hasta el control de coches autónomos y la automatización de decisiones de negocio.

A diferencia de Hinton y LeCun, quienes se unieron a Google y a Facebook, respectivamente, Bengio ha resistido el reclamo de grandes empresas de tecnología y mantiene su puesto de profesor de tiempo completo en la Universidad de Montreal (Canadá). Además, en 2016 cofundó Element AI como un negocio muy exitoso para ayudar a las grandes empresas a explorar las aplicaciones comerciales de la inteligencia artificial.

Bengio habló recientemente con el editor jede de MIT Technology Review para IA, Will Knight, en un evento del MIT (EE.UU.).

¿Qué opina de que distintos países estén embarcados en una carrera por liderar la inteligencia artificial?

No me gusta. No creo que sea lo correcto. Podríamos participar en la carrera de forma colectiva. Pero como científico y persona enfocada en el bien común, creo que es mejor pensar en construir máquinas más inteligentes y asegurarnos de que la inteligencia artificial se utiliza para beneficiar al mayor número posible de personas.

¿Cómo se podría fomentar la colaboración entre países?

Podríamos hacer que a las personas de países en vías desarrollo les resulte más fácil emigrar. Es problema muy grave ahora mismo. A un investigador africano le cuesta mucho obtener visados para Europa, Estados Unidos o Canadá. Es una lotería, y en muchas ocasiones se usará cualquier excusa para negar la entrada. Es totalmente injusto. Ya les resulta bastante difícil investigar con pocos recursos, pero si además no pueden acceder a la comunidad, me parece algo realmente injusto. Para contrarrestarlo, en 2020 vamos a organizar el evento ICLR [una importante conferencia sobre IA] en África. 

La inclusión tiene que ser más que una palabra que decimos para quedar bien. El potencial para que la IA sea útil en el mundo en desarrollo es aún mayor. Necesitan mejorar su tecnología incluso más que nosotros, y tienen necesidades diferentes.

¿Le preocupa que solo un puñado de empresas de inteligencia artificial, en Occidente y quizás China, dominen todo el sector?

Sí, es otra razón por la que necesitamos más democracia en la investigación de IA, ya que la investigación de la IA en sí misma tenderá a generar concentraciones de poder, dinero e investigadores. Los mejores estudiantes quieren ir a las mejores empresas. Estas compañías tienen mucho más dinero y  muchos más datos. Y esto no es saludable. Incluso en una democracia, es peligroso que el poder se concentre en unas pocas manos. 

Ha habido mucha controversia sobre los usos militares de la IA. ¿Cuál es su postura sobre eso?

Estoy muy firmemente en contra. 

¿Incluso contra los usos no letales de la IA?

Bueno, no quiero prevenir eso. Creo que debemos lograr que los robots asesinos sean algo inmoral. Debemos cambiar la cultura, y eso incluye cambiar las leyes y tratados. Eso puede servir de mucho.

Por supuesto, nunca se impedirá por completo, y habrá gente que diga: "Algún país desalmado va a desarrollar ese tipo de cosas". Mi respuesta es que, primero: queremos que se sientan culpables por hacerlo, y segundo: nada nos impide construir tecnología defensiva. Hay una gran diferencia entre las armas defensivas que contra drones y las armas ofensivas dirigidas a los humanos. Ambas pueden usar la IA.

¿No deberían los expertos de la IA colaborar con los militares para garantizar que esto sea así? 

Si tuvieran los valores morales correctos, de acuerdo. Pero no confío demasiado en las organizaciones militares, tienden a imponer el deber antes que la moral. Ojalá fuera diferente.

¿Qué es lo que más le entusiasma de las nuevas investigaciones de IA? 

Creo que debemos considerar los difíciles desafíos de la IA y no conformarnos con los avances incrementales a corto plazo. No estoy diciendo que haya que olvidarse del aprendizaje profundo. Al contrario, quiero construir sobre él. Pero necesitamos poder extenderlo para hacer cosas como razonar, descubrir relaciones causa-efecto y explorar el mundo para aprender y adquirir información.

Pero si lo que queremos es acercar la IA a un nivel humano, eso es otra historia. Necesitamos inversiones a largo plazo, y creo que la academia es el mejor actor para liderar esos avances. 

Ha mencionado las relaciones causa-efecto; en otras palabras, la posibilidad captar no solo los patrones en los datos, sino también el por qué sucede algo. ¿Por qué es eso tan importante y tan difícil?

Si tienes un buen modelo causal del mundo con el que tratas, puedes hacer generalizaciones incluso en situaciones desconocidas. Eso es algo crucial. Los humanos somos capaces de proyectarnos en situaciones muy diferentes a nuestra experiencia cotidiana. Las máquinas no son así, porque no tienen estos modelos causales.

Podemos crearlos a mano, pero no es suficiente. Necesitamos máquinas capaces descubrir los modelos causales. Hasta cierto punto, nunca va a ser perfecto. No tenemos un perfecto modelo causal de la realidad; y es por eso que cometemos muchos errores. Pero lo hacemos mucho mejor que otros animales.

En este momento no tenemos buenos algoritmos para hacer esto, pero creo que si el número suficiente de personas trabajan en ello y lo consideran importante, haremos avances.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA ya puede vernos a través de la pared y saber qué hacemos

    Un sistema de visión artificial combina entrenamiento con luz visible y ondas de radio para identificar las acciones de personas ocultas tras cualquier estructura. Dado que el sistema no puede reconocer caras, no presenta problemas de privacidad y podría usarse para monitorizar a personas mayores

  2. Claves para entender el hito del robot que resolvió un cubo de Rubik

    Primero, un algoritmo se enseñó a sí mismo a manipular el juguete en un entorno virtual en el que se simularon una infinidad de condiciones locas. Cuando logró dominarlo virtualmente, las complicadas capacidades para rotar el cubo se transfirieron a un robot físico que replicó el logro en el mundo real

  3. El mayor riesgo de los 'deepfakes' es que dudemos de todo lo que vemos

    Las ultrafalsificaciones no solo pueden hacernos creer que algo falso es real. Varios expertos advierten que la tecnología podría convertirse en una arma para que los poderosos puedan negar cualquier prueba que demuestre su corrupción y sus abusos de poder, y piden más alfabetización mediática