.

Kate Crawford, en la conferencia AI Now del MIT

Computación

Los algoritmos sesgados están por todas partes, y parece que a nadie le importa

1

Dos expertas de Microsoft y Google alertan de que ni las grandes empresas dueñas de los modelos matemáticos que rigen nuestras vidas ni los gobiernos están haciendo nada por resolver el problema de la discriminación algorítmica

  • por Will Knight | traducido por Teresa
  • 27 Julio, 2017

Los modelos matemáticos opacos y potencialmente sesgados están empezando a controlar nuestras vidas, y parece que ni a las empresas responsables ni a los gobiernos les interesa solucionar el problema. Así que un grupo de investigadores en colaboración con la Unión Estadounidense por las Libertades Civiles ha lanzado una iniciativa para identificar y destacar los sesgos algorítmicos. El proyecto, llamado AI Now, ha sido recientemente anunciado durante un evento del MIT (EEUU) e intentará explorar lo que muchos expertos ven como un creciente desafío.

El sesgo algorítmico se está convirtiendo en un importante problema social que coincide con un momento crítico en la evolución del aprendizaje automático y la inteligencia artificial (IA). No identificar los prejuicios que se esconden dentro de los algoritmos que toman decisiones cada vez más importantes podría tener graves consecuencias negativas, especialmente para las comunidades más pobres y las minorías. Pero estos miedos también podrían obstaculizar el progreso de una tecnología increíblemente útil (ver Unámonos para evitar la discriminación de los algoritmos que nos gobiernan).

Los algoritmos con posibles prejuicios ocultos ya se usan cada día para tomar importantes decisiones financieras y legales, como por ejemplo, quién obtendrá una entrevista de trabajo, la libertad condicional o  un préstamo. Las investigadoras de Microsoft y Google Kate Crawford y Meredith Whittaker respectivamente, afirman que los prejuicios pueden existir en todo tipo de servicios y productos.

En un correo electrónico, afirman: "Todavía estamos en los primeros días de la ciencia del sesgo algorítmico. En este año hemos observado más sistemas con problemas, y estos son sólo los que han sido investigados". Ambas afirman que los recientes ejemplos de sesgos algorítmicos que han salido a la luz son sistemas defectuosos y poco representativos utilizados para valorar a los profesores y modelos basados ​​en el género para el procesamiento del lenguaje natural.

La matemática y autora de Armas de Destrucción Matemáticas, Cathy O'Neil, cuyo libro destaca el riesgo del sesgo algorítmico en muchos contextos, afirma que las personas suelen estar demasiado dispuestas a confiar en modelos matemáticos porque creen que eliminarán el sesgo humano. "[Los algoritmos] reemplazan los procesos humanos, pero no están sometidos a los mismos estándares [que los humanos]. La gente deposita una confianza excesiva en ellos", sentencia.

No son las únicas investigadoras que coinciden en que uno de los desafíos clave estriba en que las partes interesadas más estratégicas, incluidas las empresas que desarrollan y aplican sistemas de aprendizaje automático y los reguladores gubernamentales, muestran poco interés en controlar y limitar el sesgo algorítmico. Las empresas financieras y tecnológicas utilizan todo tipo de modelos matemáticos y no son transparentes sobre su funcionamiento. O'Neil señala, por ejemplo, que le preocupa el funcionamiento de los algoritmos del nuevo servicio de búsqueda de empleo de Google.

O'Neil trabajó previamente como profesora de la Universidad de Barnard en Nueva York (EEUU) y como analista cuantitativa en la compañía DE Shaw. Actualmente dirige Online Risk Consulting & Algorithmic Auditing, una consultora fundada para ayudar a las empresas a identificar y corregir los sesgos en los algoritmos que utilizan. Pero la directora asegura que incluso aquellos que saben que sus algoritmos podrían estar sesgados están más interesados ​​en los resultados financieros que en solucionar el problema. O'Neil admite: "Seré sincera contigo. No tengo clientes en este momento".

O'Neil, Crawford y Whittaker también advierten de que la falta de interés de Trump en la inteligencia artificial (y en la ciencia en general) supone que ahora mismo no haya ningún movimiento regulatorio para abordar la cuestión. Crawford y Whittaker escriben: "La Oficina de Políticas Científicas y Tecnológicas [de la Oficina Ejecutiva del Presidente de EEUU] ya no participa activamente en las políticas de inteligencia artificial, ni en casi ninguna otra cosa, según su página web... El trabajo político debe estar haciéndose en otra parte".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. En busca del acuerdo global que garantice la seguridad en internet

    Cada vez más empresas, países y expertos están lanzando iniciativas para llegar a un consenso político que regule los ciberataques originados en cada país y reduzca los riesgos de ataques especialmente peligrosos como los dirigidos a hospitales e infraestructuras críticas

  2. La IA ya es capaz de plagiar el estilo de los artistas del cómic

    La técnica de inteligencia artificial conocida como normalización adaptativa de ejemplos transfiere el estilo de una novela gráfica a una foto de forma rápida y precisa. Aunque no es una buena noticia para los dibujantes, sí lo es para quien quiera hacerse un hueco en este enorme mercado

  3. El SETI solo ha buscado vida inteligente en una región ínfima del universo

    Tras años de búsqueda, la falta de señales alienígenas sugiere que los únicos seres inteligentes del cosmos están en la Tierra. Pero esta investigación revela que el área analizada hasta la fecha equivale al volumen de agua de una bañera frente al de todos los océanos