.

Kate Crawford, en la conferencia AI Now del MIT

Computación

Los algoritmos sesgados están por todas partes, y parece que a nadie le importa

1

Dos expertas de Microsoft y Google alertan de que ni las grandes empresas dueñas de los modelos matemáticos que rigen nuestras vidas ni los gobiernos están haciendo nada por resolver el problema de la discriminación algorítmica

  • por Will Knight | traducido por Teresa
  • 27 Julio, 2017

Los modelos matemáticos opacos y potencialmente sesgados están empezando a controlar nuestras vidas, y parece que ni a las empresas responsables ni a los gobiernos les interesa solucionar el problema. Así que un grupo de investigadores en colaboración con la Unión Estadounidense por las Libertades Civiles ha lanzado una iniciativa para identificar y destacar los sesgos algorítmicos. El proyecto, llamado AI Now, ha sido recientemente anunciado durante un evento del MIT (EEUU) e intentará explorar lo que muchos expertos ven como un creciente desafío.

El sesgo algorítmico se está convirtiendo en un importante problema social que coincide con un momento crítico en la evolución del aprendizaje automático y la inteligencia artificial (IA). No identificar los prejuicios que se esconden dentro de los algoritmos que toman decisiones cada vez más importantes podría tener graves consecuencias negativas, especialmente para las comunidades más pobres y las minorías. Pero estos miedos también podrían obstaculizar el progreso de una tecnología increíblemente útil (ver Unámonos para evitar la discriminación de los algoritmos que nos gobiernan).

Los algoritmos con posibles prejuicios ocultos ya se usan cada día para tomar importantes decisiones financieras y legales, como por ejemplo, quién obtendrá una entrevista de trabajo, la libertad condicional o  un préstamo. Las investigadoras de Microsoft y Google Kate Crawford y Meredith Whittaker respectivamente, afirman que los prejuicios pueden existir en todo tipo de servicios y productos.

En un correo electrónico, afirman: "Todavía estamos en los primeros días de la ciencia del sesgo algorítmico. En este año hemos observado más sistemas con problemas, y estos son sólo los que han sido investigados". Ambas afirman que los recientes ejemplos de sesgos algorítmicos que han salido a la luz son sistemas defectuosos y poco representativos utilizados para valorar a los profesores y modelos basados ​​en el género para el procesamiento del lenguaje natural.

La matemática y autora de Armas de Destrucción Matemáticas, Cathy O'Neil, cuyo libro destaca el riesgo del sesgo algorítmico en muchos contextos, afirma que las personas suelen estar demasiado dispuestas a confiar en modelos matemáticos porque creen que eliminarán el sesgo humano. "[Los algoritmos] reemplazan los procesos humanos, pero no están sometidos a los mismos estándares [que los humanos]. La gente deposita una confianza excesiva en ellos", sentencia.

No son las únicas investigadoras que coinciden en que uno de los desafíos clave estriba en que las partes interesadas más estratégicas, incluidas las empresas que desarrollan y aplican sistemas de aprendizaje automático y los reguladores gubernamentales, muestran poco interés en controlar y limitar el sesgo algorítmico. Las empresas financieras y tecnológicas utilizan todo tipo de modelos matemáticos y no son transparentes sobre su funcionamiento. O'Neil señala, por ejemplo, que le preocupa el funcionamiento de los algoritmos del nuevo servicio de búsqueda de empleo de Google.

O'Neil trabajó previamente como profesora de la Universidad de Barnard en Nueva York (EEUU) y como analista cuantitativa en la compañía DE Shaw. Actualmente dirige Online Risk Consulting & Algorithmic Auditing, una consultora fundada para ayudar a las empresas a identificar y corregir los sesgos en los algoritmos que utilizan. Pero la directora asegura que incluso aquellos que saben que sus algoritmos podrían estar sesgados están más interesados ​​en los resultados financieros que en solucionar el problema. O'Neil admite: "Seré sincera contigo. No tengo clientes en este momento".

O'Neil, Crawford y Whittaker también advierten de que la falta de interés de Trump en la inteligencia artificial (y en la ciencia en general) supone que ahora mismo no haya ningún movimiento regulatorio para abordar la cuestión. Crawford y Whittaker escriben: "La Oficina de Políticas Científicas y Tecnológicas [de la Oficina Ejecutiva del Presidente de EEUU] ya no participa activamente en las políticas de inteligencia artificial, ni en casi ninguna otra cosa, según su página web... El trabajo político debe estar haciéndose en otra parte".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Se busca tecnología para detectar explosivos mejor que los perros

    El Ejército estadounidense cuenta con más de mil perros entre sus filas. Pese a que los investigadores han intentado desarrollar dispositivos que superen la sensibilidad de los hocicos de los canes, por el momento los rastreadores electrónicos de bombas son menos efectivos y requieren demasiada infraestructura

  2. Resuelto el misterio de las 'lágrimas' que forma el vino en una copa

    Durante siglos, los científicos han intentado averiguar por qué se produce este fenómeno, y un equipo parece haberlo descubierto. El responsable es un fenómeno de la mecánica de fluidos conocido como ondas de choque

  3. "Faltan unos años para crear ordenadores cuánticos que funcionen bien"

    Hablamos en exclusiva con el CEO de Google, Sundar Pichai, sobre cómo la compañía ha logrado la supremacía cuántica, un hito que a su juicio supone el comienzo de un gran avance en el campo. Combinada con la IA, el líder tecnológico está convencido de que la computación cuántica impulsará avances para resolver desafíos como el cambio climático