.

Simon Landrein

Robótica

¿Matar a un anciano o a un bebé? La ética del coche autónomo depende del país

1

Las decisiones de millones de personas de 233 países sobre qué debería hacer el vehículo ante un dilema moral de este tipo revelan que el origen sociocultural influye mucho en la opinión. Las sociedades colectivistas priorizan el respeto a sus mayores y las individualistas, el número de vidas salvadas 

  • por Karen Hao | traducido por Ana Milutinovic
  • 07 Noviembre, 2018

En 2014, un grupo de investigadores del MIT Media Lab del Instituto Tecnológico de Massachusetts (EE.UU.) diseñó un experimento llamado Moral Machine (La máquina moral). Su objetivo era crear una plataforma similar a un juego en la que aparecieran las distintas opiniones de la gente sobre cómo un coche autónomo debería priorizar distintas vidas humanas en diferentes escenarios del "dilema del tranvía". La información obtenida debería ayudar a comprender las prioridades éticas colectivas en diferentes culturas.

Pero los investigadores no previeron que su experimento se haría viral. Cuatro años después de su lanzamiento, millones de personas de 233 países y territorios han registrado 40 millones de opiniones, lo que convierte al estudio en uno de los más grandes jamás realizados sobre preferencias morales a nivel global.

Ahora, un nuevo artículo publicado en Nature  ha analizado esos datos y sus conclusiones revelan que la ética intercultural varía mucho en función de la cultura, la economía y la ubicación geográfica.

El dilema del tranvía clásico es el siguiente: un tranvía fuera de control está a punto de chocar y matar a cinco personas. Nosotros tenemos acceso a una palanca con la que podemos hacer que el tranvía cambie de vía, pero en medio de esta hay otra persona distinta que moriría de forma prematura. ¿Deberíamos tirar de la palanca y acabar con una sola vida para salvar las otras cinco?

La Máquina Moral partió de esa idea para analizar las distintas decisiones de la gente en nueve situaciones diferentes a las que se podría enfrentar un coche autónomo:

  1. Priorizar humanos frente a mascotas

  2. Priorizar a los pasajeros del vehículo antes que a los peatones

  3. Priorizar el número de vidas salvadas en total

  4. Salvar a más mujeres que a hombres

  5. Salvar a personas jóvenes antes que a las de mayor edad

  6. Priorizar a la gente sana frente a la enferma

  7. Salvar a personas de estatus social alto frente a otras de nivel más bajo

  8. Priorizar a la gente que respeta la ley antes que a los delincuentes

  9. Decidir si el vehículo debe seguir su camino (no actuar de ninguna manera) o cambiar de dirección (actuar)

Una pregunta de ejemplo planteada a los participantes de la Máquina Moral.

Foto: ¿Qué debería hacer el coche autónomo? Este dilema plantea que el coche siga su curso y mate a cinco personas o cambie de dirección y acabe con la vida de solo una. Créditos: Moral Machine

Pero, en vez de plantear comparaciones individuales, el experimento ofrecía situaciones en las que se combinaban varias opciones. Por ejemplo, uno de los escenarios planteaba elegir entre si un coche autónomo debería continuar su trayectoria y acabar con la vida de tres peatones ancianos o si debería desviarse hacia una barricada donde mataría a sus tres jóvenes pasajeros. 

A partir del análisis de sus respuestas, los investigadores han descubierto que las preferencias de las personas difieren ampliamente en función del país, pero están muy correlacionadas con la cultura y la economía. Por ejemplo, es menos probable que las personas de sociedades colectivistas como China y Japón salven a los jóvenes en lugar de a los ancianos. Los investigadores sugieren que esto podría deberse al mayor respeto que estas culturas profesan hacia sus mayores.

Los países con culturas más individualistas son más propensos a salvar a los jóvenes

Gráfico: Francia, Grecia, Canadá, Reino Unido, Australia, Noruega, Estados Unidos, Suecia, Alemania, Estonia, Dinamarca, Suiza, Holanda, Israel, Finlandia, Singapur, Japón, Corea del Sur, China, Taiwán. Si el barómetro está más cerca del 1, los encuestados consideran más importante salvar a los jóvenes; si el barómetro está más cerca del -1, los encuestados prefieren salvar a los ancianos; 0 es el promedio global.

De manera similar, los participantes de países menos desarrollados y con instituciones más débiles son más tolerantes con los transeúntes imprudentes que con los peatones que cruzan como es debido. Y los participantes de países con un alto nivel de desigualdad económica muestran mayores brechas entre el tratamiento de las personas con estatus social alto y bajo.

En lo que se reduce la cuestión esencial del dilema del tranvía, los investigadores han descubierto que un mayor número de personas en peligro no siempre se convierte en el factor dominante en la elección del grupo que debería evitarse. Los resultados muestran que los participantes de culturas individualistas, como Reino Unido y EE. UU., prefieren salvar más vidas. Los autores creen que esto se debe a que en estos países se pone más énfasis en lo que vale cada individuo. 

Los países con culturas más individualistas tienden a salvar más vidas

Gráfico: Francia, Israel, Reino Unido, Canadá, Estados Unidos, Noruega, Australia, Singapur, Dinamarca, Suecia, Alemania, Suiza, Grecia, Estonia, Holanda, Finlandia, Corea del Sur, China, Taiwán, Japón. Si el barómetro está más cerca del 1, los encuestados dan más importancia a salvar más vidas; si el barómetro está más cerca del -1, los encuestados consideran menos importante salvar más vidas; el 0 es el promedio global.

Los países más próximos entre sí también muestran preferencias morales más similares, y que los dividen en tres grupos dominantes uno en el oeste, otro en el este y otro el sur.

Los investigadores admiten que los resultados podrían ser sesgados, dado que los participantes en el estudio fueron autoseleccionados. Todos ellos tienen más probabilidades de estar conectados a internet, tener un alto nivel social y entender la tecnología de los coches autónomos. Pero también es cierto que las personas que podrían tener mayor interés ​​en conducir vehículos de este tipo probablemente también tendrían esas características.

El estudio planta efectos interesantes para los países que actualmente están realizando pruebas con coches autónomos, ya que estas preferencias podrían influir en la configuración del diseño y la regulación de dichos vehículos. Los fabricantes de automóviles podrían aprender, por ejemplo, que los consumidores chinos preferirían un vehículo que proteja al ocupante frente al peatón.

Preferencia por país a la hora de salvar a peatones frente a los ocupantes del vehículo

Gráfico: Japón, Noruega, Singapur, Dinamarca, Finlandia, Suiza, Grecia, Holanda, Corea del Sur, Alemania, Australia, Reino Unido, Suecia, Canadá, Israel, Estados Unidos, Francia, Taiwán, Estonia, China. Si el barómetro está más cerca del 1, los encuestados consideran más importante salvar a los peatones; si el barómetro está más cerca del -1, los encuestados valoran más salvar a los pasajeros del coche; el 0 es el promedio global.

Los investigadores hacen hincapié en que sus resultados no pretenden dictar cómo deben actuar los diferentes países. De hecho, en algunos casos, creen que los tecnólogos y responsables políticos deberían ignorar la opinión pública colectiva. El coautor del estudio Edmond Awad pone como ejemplo la comparación del estado social: "Resulta preocupante que a las personas les parezca aceptable salvar a la gente de un estatus más alto que a la de un estatus más bajo. Es importante decir: 'Oye, podríamos analizar eso' en lugar de decir: 'Oh, tal vez deberíamos hacer eso'". En su opinión, los resultados deben ser usados ​​por empresas y gobiernos como base para entender cómo el público reaccionaría a la ética de las diferentes decisiones de diseño y políticas.

Awad espera que los resultados también ayuden a los tecnólogos a pensar más profundamente sobre la ética de la inteligencia artificial (IA) más allá de los coches autónomos. El investigador afirma: "Utilizamos el dilema del tranvía porque ofrece una forma muy buena de recopilar estos datos, pero esperamos que el debate sobre la ética no se limite a este asunto. La discusión debería centrarse en el análisis de riesgo, sobre quién corre más y quién menos riesgo, en vez de decir quién va a morir o no, y también deberían tratarse los posibles sesgos". En el futuro, Awad espera analizar en profundidad cómo estos resultados podrían traducirse en un diseño y una regulación más éticos para la IA.

El investigador concluye: "En los últimos dos o tres años cada vez más personas han empezado a preocuparse sobre la ética de la IA. Cada vez más personas están tomando conciencia de que la IA podría tener diferentes consecuencias éticas en distintos grupos de la población. Creo que el hecho de que veamos personas comprometidas con este asunto resulta bastante esperanzador".

Robótica

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Las peores pesadillas de un conductor entrenan al coche autónomo

    Además de desplazarse por las carreteras, los vehículos sin conductor de Waymo han recorrido miles de millones de kilómetros en un mundo virtual. Gracias a su entrenamiento en una simulación, los coches robóticos aprenden cómo enfrentarse a situaciones de riesgo que serían demasiado peligrosas de recrear en la realidad

  2. Por qué EE. UU. podría quedarse atrás en la carrera de la IA

    El inversor y tecnólogo Kai-Fu Lee cree que Estados Unidos debería impulsar la investigación en inteligencia artificial: a su juicio, la fuga de cerebros de las instituciones académicas a las tecnológicas o la falta de inversión afectan a su liderazgo en mayor medida que la competencia de China

  3. Cuatro grandes trucos para generar datos de entrenamiento para la IA

    Para que una inteligencia artificial funcione bien hay que entrenarla con multitud de datos que no siempre son fáciles de encontrar, sobre todo en PLN. Estos cuatro proyectos destacan por su ingenio para recopilarlos de fuentes como recetas de cocina, textos en 'spanglish' y hasta la Wikipedia