.

Computación

La 'gig economy', o el trabajo que viene, también es racista y sexista

1

Un nuevo estudio sugiere que los sesgos raciales y de género afectan a los usuarios y algoritmos de los portales de trabajo por encargo que se espera protagonicen buena parte del empleo en los próximos años

  • por Will Knight | traducido por Teresa Woods
  • 22 Noviembre, 2016

La economía colaborativa también es racista | MIT Technology Review en españolCrédito: Matthew Hollister.

Las aplicaciones y páginas web para contratar personas para trabajos puntuales y esporádicos como recoger y entregar la compra o diseñar un logo se han disparado en los últimos años al prometer un mercado laboral más eficiente y justo. Sin embargo, un nuevo estudio de la Universidad Northeastern en Boston (EEUU) sugiere que la discriminación racial y sexual podrían ser comunes en dos populares plataformas de la llamada gig economy, la cual engloba prácticas como la economía colaborativa y promueve el empleo informal y por encargos frente a un puesto fijo.

Los investigadores, liderados por el profesor adjunto Christo Wilson de la Universidad Northeastern y la alumna de doctorado Ancsa Hannák, estudiaron TaskRabbit, una plataforma para contratar a gente para realizar recados, y Fiverr, un mercado de trabajo para servicios creativos. En ambos encontraron pruebas de sesgos y prejuicios por cuestiones raciales y de género.

Es tan sólo un ejemplo de cómo los prejuicios se cuelan en las plataformas y los servicios en línea. Y resulta preocupante porque la economía colaborativa prometía no sólo ser más eficiente y flexible, sino también más justa al ser algoritmos quienes conectan a las personas.

En Fiverr, la investigación encontró que los trabajadores afroamericanos y asiáticos obtenían calificaciones más bajas que las personas caucásicas. En TaskRabbit, las mujeres eran peor evaluadas que los hombres mientras que los trabajadores afroamericanos también recibían peores notas que el resto. Los más preocupante, sin embargo, es que también encontraron pruebas de esos prejuicios en los algoritmos de recomendación de TaskRabbit. Los resultados de la investigación se presentarán esta semana durante una conferencia académica en Nueva York (EEUU).

Resulta imposible afirmar con certeza que la correlación identificada por Wilson y Hannák se deba realmente a un sesgo racista y sexista de los empleadores y no a otro factor desconocido, pero Wilson admite que el patrón resulta desconcertante. "Se nos dice que esto es el futuro del empleo", dice. "Si vas a lanzar un algoritmo que será utilizado por millones de personas, también tienes alguna responsabilidad con el público para examinarlo, evaluarlo y comprobar si tendrá alguno de estos efectos secundarios negativos". 

Un portavoz de Fiverr mantiene que la metodología del estudio era errónea porque ignoraba factores como las fronteras internacionales y las diferencias de idioma. También señala que los usuarios no están obligados a facilitar sus datos demográficos para utilizar el servicio, lo que reduciría la discriminación. TaskRabbit ha declinado hacer cualquier valoración o comentario. 

No obstante, existen cada vez más pruebas de que este tipo de prejuicios pueden afectar todo tipo de servicios digitales. El mes pasado, investigadores del Instituto Tecnológico de Massachusetts (MIT, EEUU), la Universidad de Stanford (EEUU) y la Universidad de Washington (EEUU) descubrieron que los conductores de Uber en Boston cancelaron más a menudo los viajes de clientes con nombres de resonancia afroamericana. También comprobaron que a los pasajeros de color se les hacía esperar más que al resto. En otro estudio publicado el año pasado, un equipo de la Universidad de Carnegie Mellon (EEUU) encontró pruebas de que las ofertas de trabajo con mejores salarios se mostraban con mayor frecuencia a los hombres que a las mujeres.  

En muchos casos, el sesgo observado sólo refleja lo que ocurre en el mundo real, como los prejuicios conscientes e inconscientes que condicionan la contratación en las empresas. Así que para los motores de recomendaciones o sistemas de aprendizaje de máquinas, la pregunta es cómo podrían eliminarse los sesgos y prejuicios de los datos que alimentan los algoritmos o incluso de los propios algoritmos. "La gente tiene la idea de que por ser un ordenador es neutral", añade Wilson. "[Pero] Si dispones de datos sesgados, tiene sentido que el algoritmo que entrenas [con ellos] contenga sesgos". 

Uno de los autores de un estudio reciente sobre Uber, el profesor adjunto de la Universidad de Washington Don MacKenzie, subraya que su estudio no demuestra que exista algún sesgo racial o de género en la plataforma. Pero asegura que es importante tener en cuenta los posibles prejuicios en el trabajo por encargo de la gig economy y los algoritmos que lo permiten. Algo que, explica, debería ser abordable si las empresas se preocupan por ello.

"Esta es una área emergente, y si existe un conjunto de buenas prácticas, lo desconozco", concluye MacKenzie. "Desde mi punto de vista, las empresas, los desarrolladores y los científicos de datos deberían prestar atención, escuchar a los usuarios y no tener miedo de probar soluciones distintas. Creo que si todos abordan estos problemas con buena fe, de manera constructiva y con la voluntad de probar cosas distintas, podremos acercarnos a eliminar los sesgos en estos sistemas".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Europa trabaja en un internet cuántico imposible de hackear

    El piloto espera estar listo en 2020 y conectará varias ciudades de los Países Bajos mediante una red para compartir datos a prueba de hackers. Pero aunque la teoría tiene sentido, todavía quedan muchos retos por delante y China también va muy deprisa en la carrera del internet cuántico

  2. Cómo Amazon colabora con la dura política migratoria de EE. UU.

    Una investigación ha revelado que el gigante proporciona infraestructura tecnológica al sistema de deportación del Departamento de Seguridad Nacional estadounidense. Otras agencias gubernamentales también hacen uso de la nube de Amazon pese a las críticas crecientes de algunos empleados

  3. Repairnator, el bot que detecta y arregla fallos de software igual que un humano

    El sistema identifica errores de programación y genera parches automáticamente con una velocidad y calidad similar a la de los desarrolladores, lo que augura un futuro computacional más seguro y eficiente. Pero para poder competir y demostrar sus capacidades tuvo que hacerse pasar por uno de ellos