.

Computación

"Las máquinas son tontísimas, solo intentamos que lo sean un poco menos"

1

Yoshua Bengio, uno de los mayores expertos en aprendizaje profundo, no teme un alzamiento robótico sino el mal uso que hagamos de la inteligencia artificial

  • por Will Knight | traducido por Teresa Woods
  • 01 Febrero, 2016

Ilustración: Yoshua Bengio

Yoshua Bengio dirige uno de los grupos más importantes de investigación sobre una potente técnica de inteligencia artificial (IA) conocida como aprendizaje profundo (ver El aprendizaje profundo quiere revolucionar todas las industrias). Esta técnica ha ido introduciendo nuevas capacidades en los ordenadores, desde el reconocimiento de voz y la clasificación de imágenes hasta unas habilidades básicas de conversación. Sin embargo, estas nuevas capacidades han abierto un debate acerca de los progresos que está haciendo la IA para igualar, o incluso superar, la inteligencia humana.

Algunas figuras de renombre como Stephen Hawking y Elon Musk han llegado a alertar de que la IA podría representar una amenaza existencial para la humanidad. Por ello, ya hay una comunidad de expertos que está invirtiendo millones de dólares en investigar los riesgos en potencia de la IA, además de posibles soluciones (ver Mil millones de dólares para evitar que la IA sea 'mala' con la humanidad). Pero las afirmaciones más catastróficas resultan exageradas para muchas de las personas que están realmente desarrollando la tecnología. Bengio, que profesor de ciencias informáticas de la Universidad de Montreal (Canadá), ha puesto un poco de perspectiva en el asunto en esta entrevista con el editor jefe de MIT Technology Review de la sección de IA y Robótica, Will Knight.

¿Debería preocuparnos lo rápido que avanza la inteligencia artificial?

Hay gente que sobrestima exageradamente los progresos que se han logrado. Ha habido muchos, muchos años de pequeños avances detrás de muchas de estas cosas, incluidas cosas mundanas como el aumento de la potencia de los datos y la potencia computacional. El bombo no trata de si lo que estamos haciendo es útil o no, que lo es. Pero la gente subestima cuánta ciencia queda por hacer. Y resulta difícil separar el bombo de la realidad porque observamos cosas maravillosas y que también, a ojos humanos, parecen mágicas.

¿Existe un riesgo de que los investigadores de IA puedan accidentalmente "liberar a la bestia", como ha dicho Musk?

No es como si alguien hubiera encontrado una especie de receta mágica de repente. Las cosas son mucho más complicadas que la sencilla historia que a algunos les gustaría contar. Los periodistas a veces querrían contar la historia de que alguien que, trabajando en su sótano o garaje, tiene esta idea genial, y entonces logramos un avance y tenemos la IA. De forma parecida, las empresas quieren contar un bonito cuento del estilo de, "Tenemos esta tecnología revolucionaria que va a cambiar el mundo – la IA casi ha llegado, y somos la empresa que la va a ofrecer". No es así como funciona en absoluto.

"Nos falta algo grande. Hemos estado haciendo unos progresos bastante rápidos, pero aún no hemos alcanzado el nivel donde diríamos que la máquina entiende. Todavía estamos lejos de llegar allí".

¿Y qué pasa con la idea, central para estas preocupaciones, de que la IA podría de alguna manera empezar a mejorarse sólo para después volverse difícil de controlar?

Así no es como se diseña la IA hoy en día. El aprendizaje de máquinas es un proceso lento y laborioso de adquirir información mediante millones de ejemplos. Una máquina se mejora, sí, pero muy, muy despacito, y de maneras muy especializadas. Y el tipo de algoritmos con los que jugamos no se parecen en nada a esos pequeñitos virus que son autoprogramables. Eso no es lo que hacemos.

¿Cuáles son algunos de los grandes problemas de la IA sin resolver?

El aprendizaje no supervisado es muy, muy importante. Ahora mismo, la manera en la que enseñamos a las máquinas a ser inteligentes es que tenemos que contarle al ordenador qué es una imagen, hasta a nivel de píxeles. Para la conducción autónoma, los humanos etiquetan grandes volúmenes de imágenes de coches para demostrar qué partes son peatonales y cuáles son carreteras. Así no es para nada cómo aprenden los humanos ni tampoco los animales. Nos falta algo grande. Esta es una de las principales cosas que hacemos en mi laboratorio, pero no existen aplicaciones a corto plazo. Probablemente mañana no sea útil para diseñar un producto.

Otro gran reto es el entendimiento del lenguaje natural. Hemos generado avances bastante rápidos durante los últimos años, es muy alentador. Pero todavía no hemos alcanzado un nivel donde podamos decir que la máquina entiende. Eso sucederá cuando podamos leer un párrafo y después formular cualquier pregunta sobre él, y la máquina conteste de forma razonable, como haría un humano. Todavía estamos lejos de llegar a esto.

¿Qué enfoques se necesitarán, más allá del aprendizaje profundo, para crear una inteligencia de máquinas real?

Los esfuerzos tradicionales, incluido el razonamiento y la lógica. Necesitamos casar estas cosas con el aprendizaje profundo para acercarnos a la IA. Soy una de las pocas personas que cree que los expertos en aprendizaje de máquinas, especialmente los de aprendizaje profundo, deberíamos prestar más atención a la neurociencia. Los cerebros funcionan, y en muchos sentidos todavía no sabemos por qué. Mejorar ese entendimiento tiene un gran potencial para ayudar las investigaciones de IA.

Y creo que los neurocientíficos ganarían mucho si prestaran atención a lo que hacemos nosotros e intentaran emparejar lo que observan del cerebro con los tipos de conceptos que desarrollamos en el aprendizaje de máquinas.

¿Alguna vez pensó que tendría que explicarle a la gente que la IA no está a punto de dominar el mundo? Tiene que resultar extraño.

Desde luego, es una preocupación nueva. Durante muchos años la IA ha sido decepcionante. Como investigadores, luchamos por hacer que la máquina sea un poquito más inteligente, pero siguen siendo tontas. Antes pensaba que no deberíamos denominar el campo como inteligencia artificial sino estupidez artificial. Realmente, nuestras máquinas son tontísimas, y sólo intentamos conseguir que lo sean un poco menos.

Ahora, debido a estos avances que la gente puede observar con las demos, podemos decir: "Vaya, realmente puede decir cosas en inglés, puede entender el contenido de una imagen". Pues, ahora conectamos estas cosas con toda la ciencia ficción que hemos visto y es como: "Ay, ¡qué miedo!".

Vale, pero seguro que sigue siendo importante pensar ahora en las consecuencias eventuales de la IA.

Desde luego. Debemos hablar de estas cosas. Lo que más me preocupa, en un futuro previsible, no es que los ordenadores se hagan con el control del mundo. Me preocupa más el uso indebido de la IA. Cosas como malas prácticas militares, o la manipulación del público mediante una publicidad realmente inteligente; también, el impacto social, como la pérdida de empleo de muchas personas. La sociedad tiene que unirse y definir una respuesta colectiva, y no dejarlo en manos de la ley de la selva.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. ‘Chiplets’: el arma de China en su batalla tecnológica contra EE UU

    Al conectar varios chips menos avanzados en uno, las empresas chinas podrían eludir las sanciones impuestas por el gobierno estadounidense.

  2. Esta ciudad china quiere ser el Silicon Valley de los ‘chiplets’

    Wuxi, el centro chino del envasado de chips, está invirtiendo en la investigación de ‘chiplets’ para potenciar su papel en la industria de semiconductores

  3. La computación cuántica se abre camino a través del ruido

    Durante un tiempo, los investigadores pensaron que tendrían que conformarse con sistemas ruidosos y propensos a errores, al menos a corto plazo. Esto está empezando a cambiar.

    Jay Gambetta dirige el desarrollo de los ordenadores cuánticos de IBM y lideró la iniciativa de llevar estos sistemas a la nube.