.

PredictiveHire

Inteligencia Artificial

Algoritmos de contratación, una amenaza cada vez mayor para los trabajadores

1

Utilizar inteligencia artificial para agilizar la selección de personal y reducir los sesgos resulta peligroso por varias razones. Una compañía afirma que es capaz de predecir la rotación laboral de un candidato sin sesgos, pero nada garantiza que su sistema esté libre de prejuicios ni evite la discriminación

  • por Karen Hao | traducido por Ana Milutinovic
  • 31 Julio, 2020

Desde que empezó la pandemia de coronavirus (COVID-19), cada vez más empresas recurren a la inteligencia artificial (IA) para que les ayude en el proceso de contratación. Los sistemas más comunes implican usar algoritmos de escaneo facial, juegos, preguntas u otras evaluaciones para determinar qué candidatos habría que entrevistar. 

Aunque los activistas y expertos advierten que estas herramientas pueden perpetuar la discriminación, los fabricantes sostienen que la contratación algorítmica ayuda a corregir el sesgo humano. Los algoritmos se pueden probar y ajustar, mientras que los prejuicios humanos son mucho más difíciles de corregir, o así se suele pensar.

En un artículo publicado en diciembre de 2019, investigadores de la Universidad de Cornell (EE. UU.) examinaron el entorno de las empresas de evaluación algorítmica para analizar sus afirmaciones y prácticas. De las 18 que identificaron con sitios web en inglés, la mayoría se presentaba como una alternativa más justa a la contratación humana, lo que sugiere que se estaban aferrando a la creciente preocupación por estos temas para ofrecer los beneficios de sus herramientas y ganar clientes.

Pero la discriminación no es lo único preocupante de la contratación algorítmica, y algunos expertos temen que el lenguaje publicitario centrado en el sesgo permita a las empresas librarse de otras cuestiones, como los derechos de los trabajadores. Una nueva publicación en preprint de una de estas empresas sirve como un recordatorio importante: "No debemos permitir que la atención que la gente ha empezado a prestar a los problemas del sesgo y la discriminación excluya el hecho de que hay muchos asuntos más", sostiene el profesor asistente en la Universidad de Cornell e investigador principal en Microsoft Research, Solon Barocas, especialista en equidad algorítmica y responsabilidad. 

La empresa en cuestión es PredictiveHire, con sede en Australia y fundada en octubre de 2013. Ofrece un chatbot que hace una serie de preguntas abiertas a los candidatos. Luego analiza sus respuestas para detectar las características de personalidad relacionadas con el trabajo como "dinamismo", "iniciativa" y "flexibilidad". Según la CEO de la empresa, Barbara Hyman, sus clientes son empleadores que gestionan una gran cantidad de solicitudes, como las de la venta al por menor, ventas en genera y centros de atención telefónica y médica.

Como descubrió el estudio de Cornell, en su lenguaje de marketing también utiliza activamente la promesa de una contratación más justa. En su página principal, se atreve a anunciarlo así: "Conozca a Phai. Su copiloto en la contratación. Hace las entrevistas MUY RÁPIDO. ES INCLUSIVO, POR FIN. FINALMENTE, SIN SESGO".

Como ya hemos dicho en otras ocasiones, la idea de algoritmos "sin sesgo" es muy engañosa. Pero la última investigación de PredictiveHire  resulta preocupante por una razón diferente. Se centra en la construcción de un nuevo modelo de aprendizaje automático que predice la probabilidad de rotación laboral de un candidato, la práctica de cambiar de trabajo con más frecuencia de lo que a un empleador le gustaría.

Ese esfuerzo representa la continuación de la reciente investigación revisada por pares de la compañía que analizó cómo las preguntas abiertas de las entrevistas se correlacionaban con la personalidad (en sí misma, una práctica muy controvertida). Como los psicólogos organizacionales ya han mostrado un vínculo entre la personalidad y la rotación laboral, según Hyman, la empresa quería probar si era posible usar sus datos para esa predicción. "La retención de empleados es un punto de gran interés para muchas empresas con las que trabajamos dados los costes de la alta rotación de empleados, que se estiman en un 16 % del coste del salario de cada empleado", añade.

El estudio utilizó las respuestas de texto libre de 45.899 candidatos que utilizaron el chatbot de PredictiveHire. Al principio, a los solicitantes se les habían hecho entre cinco y siete preguntas abiertas y de autoevaluación sobre su experiencia pasada y su criterio ante algunas situaciones hipotéticas. Había preguntas destinadas a descubrir rasgos que los estudios han demostrado que se correlacionan fuertemente con las tendencias de la rotación laboral, como ser más abiertos a nuevas experiencias, menos prácticos y con los pies poco puestos en la tierra. Los investigadores de la empresa afirman que el modelo fue capaz de predecir la rotación laboral con una gran importancia estadística. El sitio web de PredictiveHire ya está anunciando este trabajo como una evaluación del "riesgo de vuelo" que "llegará pronto".

Según el profesor adjunto en el John Jay College of Criminal Justice Nathan Newman, el nuevo trabajo de PredictiveHire es un excelente ejemplo de uno de los mayores impactos negativos del big data sobre el empleo. Newman escribió en un documento legal de 2017 que, más allá de las preocupaciones sobre discriminación laboral, el análisis de big data también se había utilizado de muchas maneras para reducir los salarios de los trabajadores.

Las pruebas de personalidad basadas en el aprendizaje automático, por ejemplo, se utilizan cada vez más en contratación para descartar a los empleados que tienen una mayor probabilidad de pedir un aumento del salario o apoyar la sindicalización. Los empleadores controlan cada vez más los correos electrónicos, los chats y otros datos de los empleados para determinar cuáles podrían irse y calcular el aumento de salario mínimo necesario para que se queden. Y los sistemas de gestión algorítmica como los de Uber están descentralizando a los trabajadores fuera de las oficinas y de los espacios de convocatoria digital que les permiten coordinarse entre sí para exigir colectivamente un mejor trato y sueldo.

Ninguno de estos ejemplos debería sorprendernos, opina Newman, ya que se trata simplemente de una manifestación moderna de lo que los empleadores llevan haciendo históricamente para reducir los salarios mediante la focalización y bloqueo de las actividades sindicales. El uso de análisis de personalidad en la contratación, que se remonta a la década de 1930 en EE. UU., de hecho, comenzó como un mecanismo para eliminar a las personas con más probabilidades de convertirse en organizadores laborales. Estas pruebas se volvieron especialmente populares en la década de 1960 y 1970, cuando los psicólogos organizacionales las perfeccionaron para evaluar a los trabajadores por sus simpatías sindicales.

En este contexto, la evaluación del riesgo de lucha de PredictiveHire es solo otro ejemplo de esta tendencia. "La rotación laboral, o la amenaza de ello, es una de las principales formas con las que los trabajadores pueden aumentar sus ingresos" , señala Barocas. La empresa incluso construyó su análisis en función de las evaluaciones de personalidad diseñadas por psicólogos organizacionales.

Barocas considera que no hay que descartar necesariamente estas herramientas por completo. Cree que el objetivo de ayudar a que la contratación funcione mejor para todos es noble y podría lograrse si los reguladores exigen una mayor transparencia. Actualmente nadie ha recibido una evaluación rigurosa y revisada por pares, asegura. Pero si las empresas informaran más sobre sus prácticas y presentaran sus herramientas para dicha validación, eso podría ayudar a que asuman sus responsabilidades. También ayudaría a los expertos a comprometerse más fácilmente con las empresas para estudiar los impactos de las herramientas en el trabajo y en la discriminación.

El experto concluy: "A pesar de todo mi trabajo durante los últimos años expresando preocupación por estas cosas, en realidad creo que muchas de estas herramientas podrían mejorar bastante el estado actual de la situación".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Cinco señales de que los problemas de la IA proceden del colonialismo

    Los algoritmos con sesgos racistas, los trabajos fantasma y el esquema de gobernanza de la inteligencia artificial no han surgido por casualidad sino que son una consecuencia directa de la colonización. Comprender su larga e inquietante historia es el primer paso para solucionarlos.

  2. Hallada una nueva forma de engañar a la IA de aprendizaje reforzado

    Llevar a cabo comportamientos extraños en un entorno provoca que los sistemas de inteligencia artificial entrenados con esta técnica se confundan. El ataque consiste en manipular a la política del algoritmo con una política antagónica que le haga perder el control y realizar acciones indeseadas

  3. Esta IA da un paso más para que haya imágenes falsas por todas partes

    OpenAI ha modificado su algoritmo GPT-2, especializado en texto, para que genere imágenes a partir de ejemplos. Sus creaciones no solo resultan convincentes sino que abren la puerta a un nuevo enfoque que facilita aún más la creación de 'deepfakes'