.

Ms Tech | Envato

Inteligencia Artificial

Empleos 2.0: aprenda a seducir al algoritmo si quiere lograr un trabajo

1

La inteligencia artificial se ha colado en todos los pasos del proceso de contratación y, aunque las plataformas como LinkedIn se esfuerzan por minimizar sus inevitables sesgos, los algoritmos no siempre juegan limpio y serán los primeros en decidir si su currículum llega a manos de reclutadores humanos o no

  • por Sheridan Wall | traducido por Ana Milutinovic
  • 29 Junio, 2021

Hace años, LinkedIn descubrió que sus algoritmos de recomendación para presentar ofertas de trabajo a los candidatos generaban resultados sesgados. Los algoritmos clasificaban a los candidatos, en parte, en función de sus probabilidades de postular para un puesto o responder a un reclutador. El sistema terminó refiriendo a más hombres que mujeres para las vacantes simplemente porque los hombres suelen ser más agresivos en la búsqueda de nuevas oportunidades laborales.

LinkedIn descubrió el problema y creó otro programa de inteligencia artificial (IA) para contrarrestar el sesgo en los resultados del primero. Mientras tanto, algunos de los sitios de búsqueda de empleo más grandes del mundo, incluidos CareerBuilder, ZipRecruiter y Monster, están adoptando enfoques muy diferentes para abordar los sesgos en sus propias plataformas, como informamos recientemente en el podcast de MIT Technology Review In Machines We TrustSin embargo, dado que estas plataformas no revelan exactamente cómo funcionan sus sistemas, es difícil saber lo efectivas que son estas medidas para prevenir la discriminación.

Si usted comenzara a buscar trabajo ahora mismo, es muy probable que la inteligencia artificial influya en su búsqueda. La IA puede determinar qué publicaciones vemos en las plataformas de búsqueda de empleo y decidir si enviar nuestro currículum a los reclutadores de una empresa. Algunas empresas pueden pedirnos que juguemos a videojuegos impulsados por inteligencia artificial que miden nuestros rasgos de personalidad y evalúan si seríamos adecuados para puestos específicos.

Cada vez más empresas utilizan inteligencia artificial para reclutar y contratar a nuevos empleados, y puede influir en casi cualquier etapa del proceso de contratación. La COVID-19 fomentó una nueva demanda de estas tecnologías. Tanto Curious Thing como HireVue, empresas especializadas las entrevistas de trabajo impulsadas por IA, informaron de un aumento de servicios durante la pandemia.

No obstante, la mayoría de las búsquedas de empleo comienzan con una simple búsqueda. Los solicitantes recurren a plataformas como LinkedInMonster o Indeed, donde pueden subir sus currículums, buscar ofertas de trabajo y postularse para vacantes.

El objetivo de estos sitios web consiste en conectar a los candidatos cualificados con los puestos disponibles. Para organizar todas las vacantes y candidatos, muchas plataformas usan algoritmos de recomendación basados en inteligencia artificial. Los algoritmos, a veces denominados motores de búsqueda de coincidencias, procesan la información tanto del solicitante de empleo como del empleador para elaborar una lista de recomendaciones para cada uno.

"Solemos oír la anécdota de que un reclutador dedica seis segundos a mirar cada currículum, ¿verdad? Pues cuando se trata del motor de recomendaciones que hemos creado, ese tiempo se puede reducir a milisegundos", resalta el vicepresidente de Gestión de Productos de Monster, Derek Kan.

La mayoría de los motores de búsqueda están optimizados para generar solicitudes, afirma el antiguo vicepresidente de Gestión de Productos de LinkedIn John JersinEstos sistemas basan sus recomendaciones en tres categorías de datos: la información que el usuario proporciona directamente a la plataforma; los datos asignados al usuario basados en otros con las habilidades, experiencias e intereses similares; y los datos de comportamiento, como la frecuencia con la que un usuario responde a los mensajes o interactúa con las ofertas de empleo.

En el caso de LinkedIn, estos algoritmos excluyen el nombre, la edad, el género y la raza de una persona, porque la inclusión de estas características puede contribuir al sesgo en los procesos automatizados. Pero el equipo de Jersin descubrió que, aun así, los algoritmos del servicio todavía podían detectar algunos patrones de comportamiento mostrados por grupos con identidades de género particulares.

Por ejemplo, mientras que los hombres tienen más probabilidades de postularse para trabajos que requieren experiencia laboral superior a la que poseen, las mujeres tienden a buscar trabajos en los que sus cualificaciones coinciden con los requisitos del puesto. El algoritmo interpreta esta variación en el comportamiento y ajusta sus recomendaciones de una manera que inadvertidamente pone en desventaja a las mujeres.

"Es posible que esté recomendando, por ejemplo, puestos más altos a un grupo de personas más que a otro, incluso si tienen el mismo nivel de cualificaciones. Puede que esas personas no sean expuestas a las mismas oportunidades. Y ese es realmente el impacto del que estamos hablando en este caso", explica Jersin.

Los hombres también incluyen más habilidades en sus currículums con un menor grado de competencia que las mujeres y, a menudo, se involucran de manera más intensa con los reclutadores en la plataforma.

Para abordar estos problemas, Jersin y su equipo en LinkedIn crearon una nueva IA diseñada para producir resultados más representativos y la implementaron en 2018. Se trataba básicamente de un algoritmo independiente creado para contrarrestar las recomendaciones sesgadas hacia un grupo concreto. La nueva IA asegura que antes de referir las coincidencias seleccionadas por el motor original, el sistema de recomendación incluye una distribución uniforme de usuarios por género

Kan explica que Monster, que ofrece entre cinco y seis millones de puestos trabajos en cualquier momento dado, también incorpora los datos de comportamiento en sus recomendaciones, pero no corrige el sesgo de la misma manera que LinkedIn. En cambio, el equipo de marketing intenta conseguir que los usuarios de diversos orígenes se inscriban en el servicio, y la empresa luego confía en los empleadores para informar e indicar a Monster si aprobó o no a un grupo representativo de candidatos. 

La CEO de CareerBuilder, Irina Novoselsky, destaca que su foco está en utilizar los datos que recoge el servicio para enseñar a los empleadores a eliminar los sesgos en sus ofertas de trabajo. Por ejemplo, "cuando un candidato lee la descripción de un puesto de trabajo con el término 'estrella del rock', hay sustancialmente un porcentaje más bajo de mujeres que se postulan", explica.

El CEO y cofundador de ZipRecruiter, Ian Siegel, resalta que, al clasificar a los candidatos, los algoritmos de su empresa no toman en cuenta ciertas características de identificación, como los nombres, sino que jerarquizan a las personas según otros 64 tipos de información, incluidos datos geográficos. Afirma que la compañía no habla de los detalles de sus algoritmos, por las preocupaciones sobre la propiedad intelectual, pero agrega: "Creo que estamos tan cerca de una evaluación basada en el mérito de las personas como es el máximo posible actualmente".

Con la automatización embebida en cada paso del proceso de contratación, los solicitantes de empleo ahora deben aprender a destacar tanto ante el algoritmo como entre los responsables de contratación. Pero sin información clara sobre lo que hacen estos algoritmos, los candidatos se enfrentan a grandes desafíos.

Kan concluye: "Creo que la gente subestima el impacto de los algoritmos y los motores de recomendación en los trabajos. Es muy probable que miles de máquinas y servidores lean primero la forma en la que una persona se presenta, mucho antes de que llegue al ojo humano".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. La horrible 'app' de 'deepfakes' que coloca a mujeres en videos porno

    Se trata de algo sobre lo que los expertos llevan tiempo advirtiendo y eleva este tipo de abusos al siguiente nivel. Las consecuencias psicológicas y sociales de esta especie de violación pueden alargarse durante años y también afectan a los hombres en países donde se castiga la homosexualidad 

  2. Los datos biométricos de los afganos, arma para la venganza talibana

    Con decenas de datos por persona, desde escáneres de iris y vínculos familiares hasta su fruta favorita, el sistema destinado a reducir el fraude en las fuerzas de seguridad del país pondría en peligro a los ciudadanos registrados

  3. El perturbador aumento del uso del reconocimiento facial de EE. UU.

    A falta de regulación federal, un informe revela que las agencias nacionales del país lo utilizan cada vez más, en muchas ocasiones sin una supervisión adecuada, y la tendencia no para de aumentar. Además, muchas de ellas utilizan el controvertido sistema de Clearview AI