.

Kate Crawford, en la conferencia AI Now del MIT

Computación

Los algoritmos sesgados están por todas partes, y parece que a nadie le importa

1

Dos expertas de Microsoft y Google alertan de que ni las grandes empresas dueñas de los modelos matemáticos que rigen nuestras vidas ni los gobiernos están haciendo nada por resolver el problema de la discriminación algorítmica

  • por Will Knight | traducido por Teresa
  • 27 Julio, 2017

Los modelos matemáticos opacos y potencialmente sesgados están empezando a controlar nuestras vidas, y parece que ni a las empresas responsables ni a los gobiernos les interesa solucionar el problema. Así que un grupo de investigadores en colaboración con la Unión Estadounidense por las Libertades Civiles ha lanzado una iniciativa para identificar y destacar los sesgos algorítmicos. El proyecto, llamado AI Now, ha sido recientemente anunciado durante un evento del MIT (EEUU) e intentará explorar lo que muchos expertos ven como un creciente desafío.

El sesgo algorítmico se está convirtiendo en un importante problema social que coincide con un momento crítico en la evolución del aprendizaje automático y la inteligencia artificial (IA). No identificar los prejuicios que se esconden dentro de los algoritmos que toman decisiones cada vez más importantes podría tener graves consecuencias negativas, especialmente para las comunidades más pobres y las minorías. Pero estos miedos también podrían obstaculizar el progreso de una tecnología increíblemente útil (ver Unámonos para evitar la discriminación de los algoritmos que nos gobiernan).

Los algoritmos con posibles prejuicios ocultos ya se usan cada día para tomar importantes decisiones financieras y legales, como por ejemplo, quién obtendrá una entrevista de trabajo, la libertad condicional o  un préstamo. Las investigadoras de Microsoft y Google Kate Crawford y Meredith Whittaker respectivamente, afirman que los prejuicios pueden existir en todo tipo de servicios y productos.

En un correo electrónico, afirman: "Todavía estamos en los primeros días de la ciencia del sesgo algorítmico. En este año hemos observado más sistemas con problemas, y estos son sólo los que han sido investigados". Ambas afirman que los recientes ejemplos de sesgos algorítmicos que han salido a la luz son sistemas defectuosos y poco representativos utilizados para valorar a los profesores y modelos basados ​​en el género para el procesamiento del lenguaje natural.

La matemática y autora de Armas de Destrucción Matemáticas, Cathy O'Neil, cuyo libro destaca el riesgo del sesgo algorítmico en muchos contextos, afirma que las personas suelen estar demasiado dispuestas a confiar en modelos matemáticos porque creen que eliminarán el sesgo humano. "[Los algoritmos] reemplazan los procesos humanos, pero no están sometidos a los mismos estándares [que los humanos]. La gente deposita una confianza excesiva en ellos", sentencia.

No son las únicas investigadoras que coinciden en que uno de los desafíos clave estriba en que las partes interesadas más estratégicas, incluidas las empresas que desarrollan y aplican sistemas de aprendizaje automático y los reguladores gubernamentales, muestran poco interés en controlar y limitar el sesgo algorítmico. Las empresas financieras y tecnológicas utilizan todo tipo de modelos matemáticos y no son transparentes sobre su funcionamiento. O'Neil señala, por ejemplo, que le preocupa el funcionamiento de los algoritmos del nuevo servicio de búsqueda de empleo de Google.

O'Neil trabajó previamente como profesora de la Universidad de Barnard en Nueva York (EEUU) y como analista cuantitativa en la compañía DE Shaw. Actualmente dirige Online Risk Consulting & Algorithmic Auditing, una consultora fundada para ayudar a las empresas a identificar y corregir los sesgos en los algoritmos que utilizan. Pero la directora asegura que incluso aquellos que saben que sus algoritmos podrían estar sesgados están más interesados ​​en los resultados financieros que en solucionar el problema. O'Neil admite: "Seré sincera contigo. No tengo clientes en este momento".

O'Neil, Crawford y Whittaker también advierten de que la falta de interés de Trump en la inteligencia artificial (y en la ciencia en general) supone que ahora mismo no haya ningún movimiento regulatorio para abordar la cuestión. Crawford y Whittaker escriben: "La Oficina de Políticas Científicas y Tecnológicas [de la Oficina Ejecutiva del Presidente de EEUU] ya no participa activamente en las políticas de inteligencia artificial, ni en casi ninguna otra cosa, según su página web... El trabajo político debe estar haciéndose en otra parte".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Humanos y máquinas deben colaborar en lugar de ser rivales, según una experta del MIT

    Mientras muchos se preocupan por la destrucción de empleos que generará la inteligencia artificial, la directora del Laboratorio de Ciencias de la Computación e IA del MIT, Daniela Rus, afirma que combinar las capacidades de humanos y máquinas es lo que genera mejores rendimientos

  2. "Aún no hemos resuelto la inteligencia artificial. Lo que tenemos ahora no es inteligencia"

    El neurocientífico Tomaso Poggio, que fue profesor de algunos de los líderes de la IA actuales, cree que dominar el ajedrez y la conducción no está resolviendo el reto de la inteligencia humana, el cual considera como "el mayor problema de la ciencia", y cree que la solución está en nuestro propio cerebro

  3. Los ordenadores cuánticos podrían acabar con Bitcoin en sólo una década

    La enorme potencia computacional que alcanzarán de aquí a 2027 podría destrozar los protocolos de seguridad que han hecho tan popular a la criptomoneda, además de cualquier otro método de seguridad criptográfica basado en las mismas técnicas. Revisar los protocolos es imperativo y urgente