.

Inteligencia Artificial

Nace el ordenador capaz de leer un texto escrito a mano

1

El software, descrito en 'Science', emplea un enfoque distinto y novedoso: aprender tareas como lo hacen los adultos en lugar de como lo hacen los niños

  • por Will Knight | traducido por Teresa Woods
  • 15 Diciembre, 2015

Foto: La gente puede aprender conceptos complejos a partir de datos limitados. Un sencillo ejemplo de un concepto nuevo (caja roja) puede aportar suficiente información para permitir (i) la clasificación de nuevos ejemplos, (ii) la generación de nuevos ejemplos, (iii) el análisis de las distintas partes de un objeto y sus relaciones (las partes segmentadas por color) y (iv) la generación de conceptos nuevos a partir de conceptos relacionados.

Inspirándose en cómo los humanos parecen aprender, los científicos han creado un software de inteligencia artificial capaz de adquirir conocimientos nuevos de una manera mucho más eficiente y sofisticada.

El nuevo programa de inteligencia artificial puede reconocer un caracter escrito a mano con más o menos la misma precisión que un humano, después de observar un sólo ejemplo. Los mejores algoritmos existentes de aprendizaje de máquinas, que emplean una técnica llamada aprendizaje profundo, necesitan ver miles de ejemplos de un carácter escrito a mano para aprender la diferencia entre una A y una Z.

El software fue desarrollado por Brendan Lake, un investigador de la Universidad de Nueva York (EEUU), junto con Ruslan Salakhutdinov, un profesor adjunto de informática de la Universidad de Toronto (Canadá) y Joshua Tenenbaum, un profesor del Departamento de Ciencias Cerebrales y Cognitivas del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés; EEUU). Los detalles del programa, y las ideas subyacentes, se publicaron el lunes en la revista Science.

Los ordenadores se han vuelto mucho más listos durante los últimos años, aprendiendo a reconocer caras, entender el lenguaje y hasta conducir coches de forma segura, entre otras muchas cosas. Y la mayor parte de los progresos se ha conseguido con el uso de grandes, o profundas, redes neuronales. Pero estos sistemas tienen una seria desventaja: requieren vastas cantidades de datos para aprender a realizar hasta las tareas más sencillas.

Esta limitación se debe en gran parte al hecho de que los algoritmos no procesan la información de la misma manera que nosotros. Aunque el aprendizaje profundo está modelado en una red virtual de neuronas – y el enfoque ha dado unos resultados muy impresionantes en tareas de percepción – es una imitación tosca del funcionamiento de nuestros cerebros. Un algoritmo de aprendizaje profundo asocia los píxeles de una imagen con un caracter concreto. Puede que el cerebro humano procese algunos estímulos visuales de una manera parecida, pero los humanos también utilizamos formas superiores de nuestras funciones cognitivas para interpretar el contenido de una imagen.

Los investigadores emplearon una técnica que llaman el marco bayesiano de aprendizaje. En esencia, el software genera un programa único por cada carácter utilizando los movimientos de un bolígrafo imaginario. Entonces se emplea una técnica probabilística de programación para emparejar un programa con un caracter determinado, o para generar un nuevo programa para un caracter desconocido. El software no imita la forma en la que los niños adquieren la capacidad de leer y escribir, sino la manera en la que los adultos, que ya saben leer y escribir, aprenden a reconocer y recrear nuevos caracteres.

"La clave de la programación probabilística – y algo bastante distinto a la manera en la que funciona el aprendizaje profundo – es que empieza con un programa que describe los procesos causales del mundo real", explica Tenenbaum. "Lo que intentamos aprender no es una firma de las características, ni un patrón de características. Intentamos aprender un programa que genera esos caracteres".

Tenenbaum y sus compañeros probaron el enfoque al hacer que tanto unos humanos como el software dibujaran nuevos caracteres después de observar un ejemplo escrito a mano, y pidiendo después a un grupo de personas que juzgara si un carácter había sido escrito por una persona o una máquina. Encontraron que menos del 25% de los jueces fue capaz de identificar la diferencia.

El equipo dice que la técnica se podría extender a unas aplicaciones más prácticas. Por ejemplo, podría habilitar a los ordenadores a aprender rápidamente a reconocer, y hacer uso de, nuevas palabras dentro de un idioma hablado. O podría permitir que un ordenador reconozca nuevos ejemplos de un objeto determinado. De forma más general, el enfoque señala una importante dirección nueva de la inteligencia artificial, mientras los investigadores sigan inspirándose en las investigaciones sobre la cognición humana.

Geoffrey Hinton, un profesor de psicología de la Universidad de Toronto que jugó un papel clave en el desarrollo del aprendizaje profundo, dice que el trabajo representa un importante paso adelante del campo. "Es un trabajo precioso, y un ejemplo muy impresionante del aprendizaje a partir de no muchos ejemplos", afirma.

Hinton, que también fue el consejero del doctorado de uno de los autores del trabajo, Salakhutdinov, dice que los investigadores de la IA pueden aprender muchas cosas útiles tanto de la neurociencia como de la ciencia cognitiva. También sugiere que los enfoques como el que se ha desarrollado para el reconocimiento de la escritura a mano, de hecho, pueden ser compatibles con el aprendizaje profundo. "Creo que se puede sacar lo mejor de ambos mundos", asegura.

Gary Marcus, un científico cognitivo de la Universidad de Nueva York y el cofundador de una empresa llamada Geometric Intelligence, que también está desarrollando enfoques de aprendizaje de máquinas inspiradas en el comportamiento humano, dice que no está completamente de acuerdo en que la mente humana funcione de la manera descrita en el trabajo publicado en Science. Pero cree que el enfoque demuestra un objetivo importante para la IA, porque en muchas situaciones no existen grandes cantidades de datos de las que pueda aprender una máquina.

"El problema con el paradigma dominante es que está muy, muy hambriento de datos", explica Marcus. "Esta es la prueba de que se puede aprender más rápido. Y creo que es algo en lo que la gente va a pensar mucho".

Marcus añade que el lenguaje podría ser la aplicación rompedora de tales sistemas. Muchos investigadores de aprendizaje profundo ya trabajan en este reto (ver El hombre que enseña a las máquinas a entender el lenguaje), pero Marcus cree que las máquinas tendrán que aprender de maneras más flexibles y eficientes para resolverlo. "El punto de inflexión real en la IA se producirá cuando las máquinas realmente puedan entender el lenguaje", afirma. "No sólo hacer unas traducciones mediocres, sino que realmente comprendan el sentido de las palabras".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Al rey de los 'deepfakes' le preocupa lo rápido que avanza la tecnología

    El experto en vídeos ultrafalsificados Hao Li cree que dentro de dos o tres años será imposible distinguir lo que es real y lo que no, ya que cualquiera podrá crear ultrafalsificaciones con un simple 'smartphone'. Por eso, además de crearlos, también trabaja en formas de detectarlos

  2. La IA que aprendió a dominar el escondite tras 380 millones de rondas

    Los agentes de inteligencia artificial se dividieron en dos equipos: los que se escondían y los que buscaban. La cooperación y la rivalidad entre ellos dio lugar a sorprendentes estrategias de juego sin que los investigadores les hubieran dado instrucciones para ello

  3. Por qué los niños deben comprender la IA para usarla mejor

    Un programa piloto del MIT Media Lab enseña a los pequeños cómo se desarrolla un algoritmo para que entiendan mejor los sesgos que se pueden generar. Conocer cómo afecta la inteligencia artificial a la sociedad les puede ayudar a darse cuenta de que la tecnología que les rodea no es neutral