.

Computación

La 'gig economy', o el trabajo que viene, también es racista y sexista

1

Un nuevo estudio sugiere que los sesgos raciales y de género afectan a los usuarios y algoritmos de los portales de trabajo por encargo que se espera protagonicen buena parte del empleo en los próximos años

  • por Will Knight | traducido por Teresa Woods
  • 22 Noviembre, 2016

La economía colaborativa también es racista | MIT Technology Review en españolCrédito: Matthew Hollister.

Las aplicaciones y páginas web para contratar personas para trabajos puntuales y esporádicos como recoger y entregar la compra o diseñar un logo se han disparado en los últimos años al prometer un mercado laboral más eficiente y justo. Sin embargo, un nuevo estudio de la Universidad Northeastern en Boston (EEUU) sugiere que la discriminación racial y sexual podrían ser comunes en dos populares plataformas de la llamada gig economy, la cual engloba prácticas como la economía colaborativa y promueve el empleo informal y por encargos frente a un puesto fijo.

Los investigadores, liderados por el profesor adjunto Christo Wilson de la Universidad Northeastern y la alumna de doctorado Ancsa Hannák, estudiaron TaskRabbit, una plataforma para contratar a gente para realizar recados, y Fiverr, un mercado de trabajo para servicios creativos. En ambos encontraron pruebas de sesgos y prejuicios por cuestiones raciales y de género.

Es tan sólo un ejemplo de cómo los prejuicios se cuelan en las plataformas y los servicios en línea. Y resulta preocupante porque la economía colaborativa prometía no sólo ser más eficiente y flexible, sino también más justa al ser algoritmos quienes conectan a las personas.

En Fiverr, la investigación encontró que los trabajadores afroamericanos y asiáticos obtenían calificaciones más bajas que las personas caucásicas. En TaskRabbit, las mujeres eran peor evaluadas que los hombres mientras que los trabajadores afroamericanos también recibían peores notas que el resto. Los más preocupante, sin embargo, es que también encontraron pruebas de esos prejuicios en los algoritmos de recomendación de TaskRabbit. Los resultados de la investigación se presentarán esta semana durante una conferencia académica en Nueva York (EEUU).

Resulta imposible afirmar con certeza que la correlación identificada por Wilson y Hannák se deba realmente a un sesgo racista y sexista de los empleadores y no a otro factor desconocido, pero Wilson admite que el patrón resulta desconcertante. "Se nos dice que esto es el futuro del empleo", dice. "Si vas a lanzar un algoritmo que será utilizado por millones de personas, también tienes alguna responsabilidad con el público para examinarlo, evaluarlo y comprobar si tendrá alguno de estos efectos secundarios negativos". 

Un portavoz de Fiverr mantiene que la metodología del estudio era errónea porque ignoraba factores como las fronteras internacionales y las diferencias de idioma. También señala que los usuarios no están obligados a facilitar sus datos demográficos para utilizar el servicio, lo que reduciría la discriminación. TaskRabbit ha declinado hacer cualquier valoración o comentario. 

No obstante, existen cada vez más pruebas de que este tipo de prejuicios pueden afectar todo tipo de servicios digitales. El mes pasado, investigadores del Instituto Tecnológico de Massachusetts (MIT, EEUU), la Universidad de Stanford (EEUU) y la Universidad de Washington (EEUU) descubrieron que los conductores de Uber en Boston cancelaron más a menudo los viajes de clientes con nombres de resonancia afroamericana. También comprobaron que a los pasajeros de color se les hacía esperar más que al resto. En otro estudio publicado el año pasado, un equipo de la Universidad de Carnegie Mellon (EEUU) encontró pruebas de que las ofertas de trabajo con mejores salarios se mostraban con mayor frecuencia a los hombres que a las mujeres.  

En muchos casos, el sesgo observado sólo refleja lo que ocurre en el mundo real, como los prejuicios conscientes e inconscientes que condicionan la contratación en las empresas. Así que para los motores de recomendaciones o sistemas de aprendizaje de máquinas, la pregunta es cómo podrían eliminarse los sesgos y prejuicios de los datos que alimentan los algoritmos o incluso de los propios algoritmos. "La gente tiene la idea de que por ser un ordenador es neutral", añade Wilson. "[Pero] Si dispones de datos sesgados, tiene sentido que el algoritmo que entrenas [con ellos] contenga sesgos". 

Uno de los autores de un estudio reciente sobre Uber, el profesor adjunto de la Universidad de Washington Don MacKenzie, subraya que su estudio no demuestra que exista algún sesgo racial o de género en la plataforma. Pero asegura que es importante tener en cuenta los posibles prejuicios en el trabajo por encargo de la gig economy y los algoritmos que lo permiten. Algo que, explica, debería ser abordable si las empresas se preocupan por ello.

"Esta es una área emergente, y si existe un conjunto de buenas prácticas, lo desconozco", concluye MacKenzie. "Desde mi punto de vista, las empresas, los desarrolladores y los científicos de datos deberían prestar atención, escuchar a los usuarios y no tener miedo de probar soluciones distintas. Creo que si todos abordan estos problemas con buena fe, de manera constructiva y con la voluntad de probar cosas distintas, podremos acercarnos a eliminar los sesgos en estos sistemas".

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Tras 20 años del primer DDoS seguimos desprotegidos contra ellos

    En el vigésimo aniversario de Trin00, el primer ataque distribuido de denegación de servicio de la historia, una investigación repasa cómo ha evolucionado la estrategia hacker y las medidas de defensa. Y sus conclusiones no parecen demasiado alentadoras. Para remediarlos habría que rediseñar internet

  2. Así será el 6G, la tecnología que impulsará la revolución de la IA

    Mientras las redes 5G se implementan en diferentes partes del mundo, ya se planean las potencialidades de la próxima generación. Un equipo de investigadores defiende que el futuro 6G permitirá que diferentes agentes de IA colaboren: por ejemplo, los coches autónomos se coordinarán para mejorar sus rutas

  3. La 'explosión cámbrica' de los chips definirá el próximo bum de la IA

    Varios fabricantes defienden que son los distintos diseños de hardware de los procesadores los que marcarán el futuro de las aplicaciones de inteligencia artificial. Por ello, están explorando enfoques distintos (versátiles, especializados e incluso analógicos) para ver cuáles prevalecen