.

Volvo

Inteligencia Artificial

El accidente mortal del Uber autónomo podría no perjudicar al sector

1

La primera muerte de un peatón causada por un vehículo autónomo hace que algunos se cuestionen si la tecnología avanza demasiado deprisa. Pero ya se han producido otros accidentes mortales asociados a estos automóviles y ni el público ni los reguladores parecieron demasiado preocupados

  • por Will Knight | traducido por Mariana Díaz
  • 21 Marzo, 2018

Después de que un Uber sin conductor matara a un peatón en Arizona (EE. UU.) el domingo por la noche, la industria del coche autónomo va a empezar a estar sometida a un escrutinio público mucho mayor.

Los detalles completos del accidente no están claros, pero la policía local emitió una declaración en la que afirmaba que una mujer fue golpeada mortalmente mientras pasaba frente a un Uber que circulaba en modo autónomo. La empresa dice que está cooperando con la investigación policial y ha suspendido las pruebas de sus vehículos autónomos en varias ciudades.

Es la primera vez que un vehículo que conduce solo acaba con la vida de un peatón; un suceso que está provocando que muchos se replanteen si la tecnología está avanzando demasiado deprisa. Además de Uber, docenas de compañías, incluyendo grandes fabricantes establecidos y pequeñas start-ups, se han apresurado a probar vehículos autónomos experimentales y sistemas autónomos en carretera. Estos proyectos han sido bien recibidos por los gobiernos locales, dado el potencial de esta tecnología y el hecho de que, en general, en las pruebas siempre había un conductor humano de apoyo. De hecho, en el accidente mortal de Uber también había un conductor de seguridad en el asiento delantero.

Aunque la conducción autónoma podría salvar innumerables vidas en las carreteras, algunos creen que la tecnología se está implementando demasiado rápido. Otros la han glorificado y han defendido que ya estaba lista para ser implementada a gran escala, pero "esto es una prueba evidente de que todavía no se puede", advierte el investigador del MIT (EE. UU.) Bryan Reimer, especializado en conducción autónoma. El experto añade: "Hasta que no entendamos mejor las pruebas y el despliegue de estos sistemas debemos tomarnos nuestro tiempo y trabajar en mejorar la tecnología".

Es poco probable que el accidente siente un precedente legal, según el investigador de la Universidad de Washington (EE. UU.) Ryan Calo, que investiga las implicaciones legales de los vehículos autónomos. Incluso si se determina que la víctima fue en parte responsable, la compañía también puede serlo, por lo que le interesa mucho resolver el problema para evitar que se convierta en un caso de prueba, afirma Calo.

El experto hace un llamamiento a los desarrolladores de vehículos con inteligencia artificial (IA) para que piensen detenidamente en el impacto potencial que sus sistemas pueden tener en las vidas humanas y consideren las implicaciones legales y éticas.

Las cuestiones éticas que rodean a los vehículos sin conductor (y especialmente la situación conocida como el "dilema del tranvía", en la que un vehículo debe decidir entre dos posibles víctimas en un accidente) están enturbiando la situación. Calo matiza: "No creo que los debates sobre el dilema del tranvía hayan sido útiles". Sobre el accidente que mató a la mujer en Arizona, Calo cree que "los sensores probablemente no la identificaron o que el algoritmo no entendió lo que estaba viendo".

Los reguladores sin duda empezarán a analizar más profundamente la tecnología después de este último revés. Ayer, la Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. (NHTSA, por sus siglas en inglés) y la Junta Nacional de Seguridad del Transporte del país (NTSB, por sus siglas en inglés) anunciaron que ya han abierto una investigación sobre el caso.

El profesor de la Universidad Estatal de Arizona Subbarao Kambhampati, especializado en inteligencia artificial, dice que el accidente de Uber plantea preguntas sobre la capacidad de los responsables de seguridad para monitorizar los sistemas de manera efectiva, especialmente después de largas horas de pruebas. Una investigación de hace un par de años liderada por Reimer refuerza este argumento. Otro estudio ha demostrado que será necesario (pero no fácil) establecer comunicaciones entre los sistemas autónomos y los peatones.

El accidente se ha producido mientras la tecnología empezaba a avanzar a ritmo acelerado y comenzaba a parecer oportuno ablandar las restricciones legales. Waymo, una subsidiaria de Alphabet, anunció a finales del año pasado que iba a prescindir del conductor de seguridad de sus vehículos y que planeaba lanzar un servicio de taxis sin conductor en EE. UU. este mismo año.

Hace solo unos días, Waymo, Uber y otras empresas habían instado al Congreso de Estados Unidos a aprobar una legislación que allane el camino para los vehículos autónomos. Pero este accidente tiene muchas probabilidades de dificultar (si no impedir) su petición.

Aunque la tecnología aún no se ha comercializado, ya se han producido varios accidentes, incluido uno ocurrido en Florida (EE. UU.) en mayo de 2016 que involucró un Tesla Modelo S que conducía en modo autónomo. El Tesla no pudo ver un camión al otro lado de la carretera y, en consecuencia, el conductor del vehículo autónomo murió en el accidente. Aunque las investigaciones concluyen que la tecnología fue la culpable en varios de estos accidentes, nadie se ha animado a implementar reglas más estrictas ni a detener las pruebas por completo.

Hasta ahora, la opinión pública no parecía demasiado contraria a los coches autónomos, ni siquiera después de los accidentes que causaron. Y no está claro que eso vaya a cambiar ahora. Kambhampati concluye: "No estoy seguro de que esto vaya a generar una preocupación o reacción pública. Sinceramente, creía que el público tendría una reacción más violenta después del accidente de Tesla".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Por qué limitar las exportaciones de IA es una idea pésima

    EE. UU. cree que la inteligencia artificial le convertirá en líder de la industria militar, así que se está planteando aumentar el control sobre sus exportaciones con esta tecnología, principalmente hacia China. Pero la medida podría perjudicar a sus propias empresas y beneficiar al país asiático

  2. (Por fin) Facebook toma medidas para combatir la plaga de 'deepfakes'

    La red social creará sus propias ultrafalsificaciones y las usará para desarrollar sistemas capaces de detectarlas automáticamente. Cada vez más empresas, políticos y expertos alertan del enorme problema que supondrán cuando se masifiquen, ya que incluso podrían usarse para el acoso escolar

  3. Esta IA aprenderá de todo ayudando a los jugadores de 'Minecraft'

    Facebook ha creado un asistente de inteligencia artificial diseñado para hacer tareas dentro del popular videojuego. A medida que los humanos le pidan cosas, el sistema irá automejorando hasta que adquiera una capacidad general para hacer distintas tareas en lugar de solo una muy bien