.

Inteligencia Artificial

La conducción semiautónoma supone más riesgos que beneficios

1

¿De qué sirve que el coche conduzca solo si hay que prestarle la misma atención? Las pruebas demuestran que depender de personas para supervisar un coche parcialmente automatizado es mala idea

  • por Tom Simonite | traducido por Teresa Woods
  • 15 Julio, 2016

Cuando Joshua Brown activó la prestación Autopilot de su Modelo S de Tesla el pasado 7 de mayo, se le habría advertido de que no se confiara. "Mantenga siempre las manos en el volante. Ha de estar preparado para asumir el control en cualquier momento", alerta automáticamente Autopilot al activarse. Pero más tarde ese mismo día Brown murió cuando su coche chocó contra un tractor que Autopilot no fue capaz de detectar. Los datos extraídos del vehículo no indican que el conductor activara ninguno de los controles del coche inmediatamente antes del accidente.

Las investigaciones federales del accidente por la Administración Nacional de Seguridad en Carretera de Estados Unidos (NHTSA, por sus siglas en inglés) y la Junta Nacional de Seguridad del Transporte (NTSB, por sus siglas en inglés) cuestionarán si el diseño de Tesla pide demasiado de los conductores.

Después que la NHTSA anunciara que investigaría el accidente de Brown, Tesla repitió un comentario que hizo tras otros accidentes menos graves de Autopilot. La empresa afirmó"Autopilot mejora constantemente, pero no es perfecto y aún requiere que el conductor se mantenga alerta". Describió la investigación como un intento de "determinar si el sistema cumplió con las expectativas".

Pero el director de Investigaciones de Seguridad Vehicular de la NHTSA entre 2008 y 2012, John Maddox, dice que la agencia probablemente considerará si las expectativas de que los conductores pueden supervisar Autopilot son razonables tanto en esa investigación como en otra sobre un choque sin víctimas mortales en el que participó un todo terreno Modelo X de Tesla en Pensilvania (EEUU) este mes.

Maddox, que actualmente es el CEO del Centro Estadounidense para la Movilidad, una organización sin ánimo de lucro que trabaja para establecer unas instalaciones de pruebas para las tecnologías de conducción autónoma, explica: "Eso podría ser un componente que contribuye a estos accidentes, basándonos en las informaciones divulgadas por los medios de comunicación. Existe un concepto de un mal uso previsible donde no importa lo que se le diga a los conductores, podrían hacer un uso indebido de la tecnología, y eso podría representar un riesgo no razonable".

Décadas de historia de la NHTSA demuestran que avisar simplemente a los conductores no basta, afirma Maddox. Por ejemplo, cuando se demostró que las alfombrillas generaban informes de "aceleración no deseada" en vehículos de Toyota, el fabricante fue citado por la NHTSA a pesar de que los propietarios habían sido advertidos de tener cuidado de no sustituir ni descolocar las alfombrillas.

El profesor de la Universidad de Wisconsin (EEUU) John Lee también cree que la investigación de Tesla debería considerar si es razonable esperar que los humanos intervengan cuando falle Autopilot. Colaboró en la elaboración de un informe de las Academias Nacionales sobre si los fallos de la electrónica de los vehículos contribuyeron a los problemas de aceleración de Toyota. Concluyó que no, pero criticó a la NHTSA por no estar mejor equipada para investigar los sistemas electrónicos de los vehículos.

"El percance de Tesla es uno de esos casos para los que el informe intentaba preparar a la NHTSA para que fuera capaz de lidiar con ellos", afirma Lee. Considera que un diseño más amplio, no sólo si funciona tal y como describe Tesla, sino que tiene sentido porque existen pruebas convincentes de que no se puede confiar en los humanos para supervisar responsablemente sistemas como Autopilot.

"La gente está fundamental y psicológicamente incapacitada para monitorizar sistemas con fallos ocasionales", asegura Lee.

Existen muchas pruebas de que la gente lucha por mantener la atención incluso cuando lleva íntegramente el control del vehículo. La NTSB calcula que 1,6 millones de accidentes anuales en Estados Unidos incluyen conductores que utilizaban sus móviles.

Si Autopilot funciona fundamentalmente sin requerir ninguna participación humana, la gente sentirá el impulso natural de no supervisarlo de cerca y no estará preparada para asumir el control cuando sí necesite de su ayuda, explica Lee. "Es una situación muy difícil como para introducir a la gente y esperar que responda de forma apropiada", asegura. El experto afirma que sus simulaciones en laboratorio lo demuestran.

El responsable del proyecto de coches autónomos de Google ha dicho que la empresa decidió que diseños como el de Tesla son peligrosos después de prestar a 140 personas unos prototipos capaces de asumir la conducción. A pesar de saber que estaban siendo grabados, los conductores rápidamente llegaron a confiar en la tecnología e hicieron cosas como darse la vuelta para rebuscar en el asiento de atrás (ver La pereza dirige el diseño el nuevo coche autónomo de Google).

Las investigaciones de Tesla representan la primera vez que la NHTSA ha tenido que lidiar con los problemas de seguridad asociados a un sistema que asume una proporción tan grande del trabajo del operador de un vehículo. Esos problemas son menos novedosos para la NTSB, que anunció durante el pasado fin de semana que también investigará el accidente mortal de Tesla.

La NTSB sobre todo investiga accidentes de avión y de tren, en los que los datos procedentes de cajas negras y prestaciones automáticas a menudo se encuentran en el centro de las investigaciones. En años recientes, el presidente de la agencia, Christopher Hart, se ha quejado de que el aumento de automatización en los aviones está reduciendo las capacidades y la profesionalidad de los pilotos comerciales.

El mes pasado, Hart advirtió de que los hallazgos de su agencia en tales casos proporcionan motivos para la precaución en los esfuerzos para incorporar prestaciones de conducción autónoma a los coches. El responsable afirmó: "Introducir la automatización en complejos sistemas centrados en humanos puede ser todo un reto. Hemos observado que los obstáculos pueden ser aún más difíciles en un sistema que aún incluya una importante participación por parte del operador humano y no sea totalmente autónoma".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La nueva IA de Google DeepMind aprende a jugar videojuegos sola

    El nuevo agente de Google DeepMind podría enfrentarse a una variedad de juegos que nunca antes había visto observando a jugadores humanos

  2. Cómo la IA nos acerca al paradigma de robots capaces de moverse por el mundo real

    El aprendizaje por refuerzo puede ayudar a los robots a enfrentarse a nuevas tareas que no han intentado antes

  3. Una ‘spinoff’ de OpenAI crea una IA que permite a robots aprender como los humanos

    Pero ¿puede pasar del laboratorio al almacén?