.

Inteligencia Artificial

La inteligencia de los coches autónomos podría resultar imposible de descifrar

1

Se sabe cómo programar un coche inteligente para que detecte obscátulos y tome decisiones, pero nadie sabe por qué toma las decisiones que toma, algo imprescindible en caso de accidente

  • por Will Knight | traducido por Teresa Woods
  • 12 Julio, 2016

Dos recientes accidentes en los que el sistema Autopilot de Tesla estuvo involucrado pueden suscitar preguntas acerca de cómo los sistemas informáticos basados en el aprendizaje deberían ser validados e investigados cuando algo sale mal.

En Florida (EEUU) se produjo un accidente mortal el mes pasado cuando un Modelo S controlado por Autopilot chocó con un camión que el sistema no divisó. Tesla insta a los conductores a seguir prestando atención a la conducción durante el uso de Autopilot, y explica en un descargo de responsabilidad que el sistema puede fallar con un exceso de luz solar. El pasado jueves la Administración Nacional de Seguridad en Carretera de Estados Unidos anunció estar investigando otro accidente producido hace dos semanas en Pensilvania (EEUU). En este inciente, un Modelo X chocó contra las barreras de ambos lados de una autopista y después volcó. El conductor afirmó que su coche estaba siendo operado por Autopilot en ese momento. 

Tesla no ha divulgado exactamente cómo funciona Autopilot. Pero las técnicas de aprendizaje de máquinas se usan cada vez más para entrenar sistemas automovilísticos, especialmente para reconocer informaciones visuales. MobileEye, una empresa israelí que proporciona tecnología a Tesla y otros fabricantes automovilísticos, ofrece software basado en aprendizaje profundo para reconocer vehículos, demarcaciones de carril, señales de tráfico y otros objetos en imágenes de vídeo.

Foto: Un técnico examina un Tesla con un portátil. Crédito: VCG (Getty Images).

El aprendizaje de máquinas puede proporcionar una manera más fácil de hacer cosas que resultan increíblemente difíciles de codificar a mano. Por ejemplo, una red neuronal de aprendizaje profundo puede ser entrenada para reconocer perros en fotos y vídeos con una increíble precisión siempre que haya podido estudiar suficientes ejemplos. La otra cara de la moneda es que puede resultar más complicado entender cómo funcionan estos sistemas.

Una red neuronal puede ser diseñada para proporcionar una medida de su propia confianza dentro de una categoría, pero la complejidad de los cálculos matemáticos implica que no es fácil descomponer la red para entender cómo toma las decisiones. Esto puede hacer que los comportamientos no deseados resulten difíciles de predecir; y en caso de producirse un error, puede resultar complicado explicar el por qué. Si un sistema falla al reconocer un objeto dentro de una foto, por ejemplo, puede ser difícil (aunque no imposible) identificar qué características de la imagen dieron paso al error. Existen retos similares con otras técnicas de aprendizaje de máquina.

A medida que estos algoritmos sean más comunes, los reguladores tendrán que considerar cómo deberían ser evaluados. Las automovilísticas son conscientes de que unos coches autónomos cada vez más complejos y automatizados podrán resultar difíciles de analizar para los reguladores. Toyota está financiando un proyecto de investigación en el Instituto Tecnológico de Massachusetts (MIT, EEUU) que explorará distintas maneras para que los vehículos autónomos expliquen sus acciones después de llevarlas a cabo. El fabricante japonés está financiando varios proyectos de investigación relacionados con los retos de los coches autónomos.

El aprendizaje profundo puede ser empleado para controlar un coche a partir de datos del sensor, más allá de sólo reconocer objetos dentro de las imágenes. Un equipo de la Universidad de Princeton (EEUU) diseñó un sistema de conducción autónoma basado en el aprendizaje profundo. E investigadores del fabricante de chips Nvidia, que proporciona un abanico de hardware a las automovilísticas, han demostrado un vehículo autónomo que depende totalmente del aprendizaje profundo.

El investigador científicos del MIT y el fundador de nuTonomy, una start-up centrada en los taxis autónomos, Karl Iagnemma, dice que un sistema de aprendizaje profundo de extremo a extremo resultaría difícil de descifrar. "Se desarrolla un algoritmo caja negra que es entrenado con ejemplos de conducción segura pero cuyo rendimiento representa una función bastante inescrutable", señala.

El profesor adjunto de la Universidad de Stanford (EEUU) Silvio Savarese, especializado en visión de máquinas, dice que una desventaja del aprendizaje de máquinas convencional es que carece de la capacidad humana de sacar conclusiones a partir de varias formas de información. Incluso si un vehículo está temporalmente obstruido, una persona podría suponer que podría convertirse en un obstáculo dada su trayectoria. Por eso Sacarese matiza: "Nosotros utilizamos una gran cantidad de información contextual. A los mecanismos actuales de aprendizaje no se les da bien".

La investigación de Tesla está siendo seguida de cerca por los desarrolladores de tecnologías de conducción autónoma. Sean cuales sean las conclusiones, existe inquietud acerca de la percepción pública de la tecnología y su seguridad. Iagnemma no quiere observar una reacción precipitada al accidente. El experto asegura: "Nos encontramos en un momento en el que esto podría frenar los progresos. Si la sabiduría colectiva evolucionara para que un sólo accidente signifique que los desarrolladores fueron temerarios, se fijaría un listón altísimo".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana
  2. "La pregunta es cuánta participación humana se necesita para que algo sea arte"

    Alex Reben hace arte con (y sobre) IA. Hablé con él sobre lo que la nueva ola de modelos generativos significa para el futuro de la creatividad humana

    Detalle de un cuadro de una cabeza deformada en la que unas enormes orejas en la parte frontal de la cara tapan los ojos y una lengua brillante con textura de fresa sobresale de la boca abierta.
  3. Compensación y atribución para los creadores, la apuesta de Adobe por una IA generativa diferente

    La empresa afirma que es la prueba de que los modelos de IA de calidad no tienen por qué incluir polémicos contenidos protegidos por derechos de autor

    Imagen generada mediante IA de una mano que utiliza una cuchilla de precisión para cortar un dibujo de la realidad