.

Ms Tech | Pixabay

Inteligencia Artificial

Una idea psicológica de hace 40 años ayuda a la IA a entender mejor el mundo

1

El concepto del ofrecimiento refleja que no solo percibimos los objetos sino también las posibilidades que nos ofrecen, lo que ayuda a interactuar con ellos. Investigadores de DeepMind lo están usando para entrenar a una inteligencia artificial que ya ha demostrado ser más eficaz que otra sin ese entrenamiento

  • por Karen Hao | traducido por Ana Milutinovic
  • 28 Julio, 2020

El concepto: cuando miramos una silla, independientemente de su forma y color, sabemos que podemos sentarnos en ella. Cuando un pez está en el agua, independientemente de su ubicación, sabe que puede nadar. Esto se conoce como la teoría de la capacidad de pago, un término acuñado por el psicólogo James J. Gibson. Establece que cuando los seres inteligentes miran el mundo, perciben no solo los objetos y sus relaciones, sino también sus posibilidades . En otras palabras, la silla "ofrece" la posibilidad de sentarse. El agua "ofrece" la posibilidad de nadar. La teoría podría explicar en parte por qué la inteligencia animal es tan generalizable: a menudo sabemos de inmediato cómo interactuar con nuevos objetos porque reconocemos sus posibilidades.

La idea: los investigadores de DeepMind ahora están utilizando este concepto para desarrollar un nuevo enfoque para el aprendizaje por refuerzo . En el aprendizaje de refuerzo típico, un agente aprende a través de prueba y error, comenzando con el supuesto de que cualquier acción es posible. Un robot que aprende a moverse del punto A al punto B, por ejemplo, asumirá que puede moverse a través de paredes o muebles hasta que las fallas repetidas le indiquen lo contrario. La idea es que si al robot se le enseñara primero las posibilidades de su entorno, eliminaría inmediatamente una fracción significativa de las pruebas fallidas que tendría que realizar. Esto haría que su proceso de aprendizaje sea más eficiente y lo ayudaría a generalizar en diferentes entornos.

Los experimentos: los investigadores establecieron un escenario virtual simple. Colocaron un agente virtual en un entorno 2D con una pared en el medio e hicieron que el agente explorara su rango de movimiento hasta que supiera lo que el entorno le permitiría hacer: sus posibilidades. Luego, los investigadores le dieron al agente un conjunto de objetivos simples para lograr mediante el aprendizaje de refuerzo, como mover una cierta cantidad hacia la derecha o hacia la izquierda. Descubrieron que, en comparación con un agente que no había aprendido las posibilidades, evitaba cualquier movimiento que hiciera que la pared lo bloqueara a mitad de su movimiento, configurándolo para lograr su objetivo de manera más eficiente.

Por qué es importante: el trabajo aún se encuentra en sus primeras etapas, por lo que los investigadores utilizaron solo un entorno simple y objetivos primitivos. Pero esperan que sus experimentos iniciales ayuden a sentar las bases teóricas para ampliar la idea a acciones mucho más complejas. En el futuro, ven este enfoque que permite a un robot evaluar rápidamente si puede, por ejemplo, verter líquido en una taza. Habiendo desarrollado una comprensión general de qué objetos ofrecen la posibilidad de retener líquido y cuáles no, no tendrá que perder repetidamente la taza y verter líquido sobre la mesa para aprender cómo lograr su objetivo.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Cinco señales de que los problemas de la IA proceden del colonialismo

    Los algoritmos con sesgos racistas, los trabajos fantasma y el esquema de gobernanza de la inteligencia artificial no han surgido por casualidad sino que son una consecuencia directa de la colonización. Comprender su larga e inquietante historia es el primer paso para solucionarlos.

  2. Hallada una nueva forma de engañar a la IA de aprendizaje reforzado

    Llevar a cabo comportamientos extraños en un entorno provoca que los sistemas de inteligencia artificial entrenados con esta técnica se confundan. El ataque consiste en manipular a la política del algoritmo con una política antagónica que le haga perder el control y realizar acciones indeseadas

  3. Algoritmos de contratación, una amenaza cada vez mayor para los trabajadores

    Utilizar inteligencia artificial para agilizar la selección de personal y reducir los sesgos resulta peligroso por varias razones. Una compañía afirma que es capaz de predecir la rotación laboral de un candidato sin sesgos, pero nada garantiza que su sistema esté libre de prejuicios ni evite la discriminación