Daniel Omeiza
Universidad de Oxford (Reino Unido) | Su sistema ayuda a un coche autónomo a "explicar" su proceso de toma de decisiones.
Las redes neuronales suelen tomar decisiones que ni siquiera los diseñadores de los sistemas comprenden del todo. Este problema de "explicabilidad" hace más difícil corregir fallos como resultados sesgados o inexactos. Daniel Omeiza (31 años), que trabaja para resolver el problema de la "explicabilidad" en los coches autónomos, ha desarrollado técnicas que permiten dar explicaciones visuales y lingüísticas tanto a ingenieros como a conductores humanos sobre por qué un coche reacciona de una manera determinada.
Su proyecto más reciente genera comentarios automáticos sobre las acciones de un coche, incluyendo explicaciones auditivas, instrucciones de conducción y un gráfico visual, con a una técnica de árbol de decisiones. Gracias a esto, permite analizar los datos de los sistemas de percepción y planificación de decisiones del coche. El modelo de Omeiza, suficientemente flexible como para funcionar en distintos coches, puede utilizar los datos registrados previamente o procesar información sobre las acciones de un vehículo durante su funcionamiento para generar explicaciones probables. Actualmente, Omeiza está trabajando en la integración de las normas de tráfico en su sistema.
Omeiza busca mejorar la seguridad de los coches autónomos y ayudar a los ingenieros de IA a codificar sistemas de forma más eficiente. Espera que su modelo aumente la confianza de los consumidores en la IA. "A veces, los modelos de deep learning dejan de lado a las personas que necesitan explicaciones para confiar en el sistema", afirma.