.

Ms Tech | Getty

Inteligencia Artificial

La sutil discriminación de las IA de contratación contra la discapacidad

1

A medida que las herramientas de selección de personal impulsadas por inteligencia artificial se vuelven más comunes, los defensores de las personas con discapacidades advierten sobre su impacto negativo en el colectivo y sobre la falta de regulación y auditorías para las empresas responsables de los sistemas

  • por Sheridan Wall | traducido por Ana Milutinovic
  • 26 Julio, 2021

Su capacidad para conseguir su próximo trabajo podría depender de lo bien que juegue uno de los videojuegos impulsados por inteligencia artificial (IA) que las empresas como AstraZeneca y Postmates utilizan cada vez más en el proceso de contratación.

Algunas de las empresas que crean estos videojuegos, como Pymetrics y Arctic Shores, afirman que limitan el sesgo en la contratación. Pero los juegos de contratación de IA pueden ser especialmente difíciles para las personas con discapacidad. Aunque muchas personas esperan que la comisión federal responsable de controlar la discriminación laboral en EE. UU. regule estas tecnologías, la agencia aún no ha actuado.

Para comprobarlo más de cerca, le pedimos al analista de políticas de discapacidad Henry Claypool, que jugara uno de los videojuegos de Pymetrics. La compañía evalúa nueve habilidades, incluida la atención, la generosidad y la tolerancia de riesgo, que su CEO y cofundadora Frida Polli asegura que se relacionan con el éxito laboral.

Cuando trabaja con una empresa que quiere contratar a gente nueva, Pymetrics primero solicita a la compañía que identifique a las personas que ya tienen éxito en el puesto de trabajo que se quiere cubrir y les pide que jueguen a sus videojuegos. Luego, para descubrir las habilidades más específicas de los empleados exitosos, compara los datos de su juego con los datos de una muestra aleatoria de jugadores.

Cuando Claypool se inscribió, el juego le pidió elegir entre la versión modificada, diseñada para personas con daltonismo, TDAH o dislexia, y la versión no modificada. En su opinión, esta primera pregunta ya plantea un dilema para los solicitantes con discapacidades.

El responsable detalla: "El temor consiste en que, si hago clic en una de las dos opciones, revele algo que me descalificaría para el trabajo, y si no hago clic en, por ejemplo, dislexia o lo que sea que me dificulte leer y procesar esa información rápidamente, entonces estaré en desventaja. Voy a equivocarme sí o sí".

Polli señala que Pymetrics no indica a los empleadores qué solicitantes pidieron adaptaciones en el juego durante el proceso de contratación, lo que debería ayudar a impedir que discriminen a las personas con ciertas discapacidades. Añade que, en respuesta a nuestros reportajes, la empresa hará que esta información sea más clara para que los solicitantes sepan que su necesidad de adaptaciones en el juego es privada y confidencial.

La Ley de Estadounidenses con Discapacidades requiere que los empleadores proporcionen adaptaciones razonables para estas personas. Y si las evaluaciones de contratación de una empresa excluyen a la gente con discapacidad, entonces la empresa debe demostrar que esas evaluaciones son necesarias para el trabajo.

Para los empleadores, el uso de videojuegos como los que desarrolla Arctic Shores puede parecer más objetivo. A diferencia de las tradicionales pruebas psicométricas, el algoritmo de Arctic Shores evalúa a los candidatos en función de sus elecciones durante el juego. No obstante, los candidatos a menudo no saben qué evalúa el juego ni qué esperar mientras juegan. Para los solicitantes con discapacidades, esto hace que sea difícil saber si deben solicitar una adaptación.

El CTO y cofundador de Arctic Shores, Safe Hammad, explica que su equipo se centra en hacer que sus evaluaciones sean accesibles para la mayor cantidad de personas posible. Las personas con daltonismo y discapacidades auditivas pueden usar el software de la empresa sin adaptaciones especiales, asegura Hammad, pero los empleadores no deberían usar tales solicitudes para descartar a los candidatos.

Sin embargo, el uso de estas herramientas a veces puede excluir a las personas de formas más sutiles. La especialista en empleo en el Centro de Formación de MacDonald en Florida (EE. UU.) Patti Sánchez trabaja con personas sordas o con problemas de audición que buscan trabajo. Hace unos dos años, uno de sus clientes solicitó un trabajo en Amazon que requería una entrevista por vídeo a través de HireVue.

Sánchez, que también es discapacitada auditiva, intentó llamar y pedir ayuda a la empresa, pero no pudo ponerse en contacto con nadie. Entonces, llevó a su cliente y a un intérprete de lengua de signos al sitio de contratación y convenció a los representantes que lo entrevistaran en persona. Amazon contrató a su cliente, pero Sánchez asegura que este tipo de problemas son comunes en los sistemas automatizados. (Amazon no respondió a nuestra solicitud de comentarios).

Hacer que la tecnología de contratación sea accesible significa garantizar que un candidato pueda usar la tecnología y que las habilidades que se evalúan no excluyan injustamente a los candidatos con discapacidades, opina la CEO de la organización Center for Democracy and Technology, Alexandra Givens, dedicada a los derechos civiles en la era digital.

Al generar sus datos de entrenamiento, las herramientas de contratación impulsadas por inteligencia artificial a menudo no incluyen a personas con discapacidades, resalta Givens. Estos colectivos llevan años siendo excluidos de la fuerza laboral, por lo que los algoritmos modelados a partir de las contrataciones anteriores de una empresa no reflejarán su potencial.

Incluso si los modelos pudieran tener en cuenta a las personas con discapacidad, la forma en la que se presentan sus condiciones varía mucho de una persona a otra. Dos personas con autismo, por ejemplo, podrían tener cualidades y defectos muy diferentes.

Givens afirma: "A medida que automatizamos estos sistemas y los empleadores buscan lo más rápido y lo más eficiente, se pierde la oportunidad de que las personas demuestren realmente sus cualidades y su capacidad para hacer el trabajo. Y esa es una gran pérdida".

Un enfoque pasivo

Los reguladores gubernamentales tienen dificultades para monitorizar las herramientas de contratación de IA. En diciembre de 2020, 11 senadores escribieron una carta a la Comisión de Igualdad de Oportunidades en el Empleo de EE. UU. (EEOC, por sus siglas en inglés) expresando su preocupación por el uso de las tecnologías de contratación después de la pandemia de COVID-19. La carta preguntaba sobre el poder de la agencia para investigar si estas herramientas discriminaban, especialmente a las personas con discapacidades.

La EEOC respondió con otra carta en enero de este año que se filtró a MIT Technology Review. En la misiva, la comisión indicó que no podía investigar las herramientas de contratación de IA sin una denuncia específica de discriminación y también describió sus preocupaciones sobre las reticencias de la industria para compartir los datos. Su opinión era que la modificación del software de diferentes empresas evitaría que la EEOC introdujera políticas más generales.

El abogado y defensor de las personas con problemas de salud conductual Roland Behm admite: "La respuesta me sorprendió y decepcionó. El tono de esa carta hacía que la EEOC pareciera más un espectador pasivo que una agencia de ejecución".

En general, la agencia inicia una investigación cuando una persona presenta una denuncia por discriminación. Pero con la tecnología de contratación de IA, la mayoría de los candidatos no saben por qué fueron rechazados para el trabajo. El comisionado de la EEOC Keith Sonderling detalla: "Creo que una razón por la que no hemos visto más acciones o litigios privados en esta área se debe al hecho de que los candidatos no saben que están siendo calificados o evaluados por un ordenador".

Sonderling cree que la inteligencia artificial mejorará el proceso de contratación y espera que la agencia emita una guía para los empleadores sobre la mejor manera de implementarla. Sonderling agradece la supervisión del Congreso de EE. UU.

Sin embargo, el director gerente de la organización sin ánimo de lucro Upturn, dedicada a los derechos civiles y la tecnología, Aaron Rieke, expresó su decepción con la respuesta de la EEOC: "Realmente espero que en los años venideros, la EEOC pueda ser un poco más agresiva y creativa sobre cómo usar su poder".

La profesora de derecho de la Universidad de Washington en St. Louis (EE.UU.) Pauline Kim, cuya investigación se centra en las herramientas de contratación algorítmica, cree que la EEOC podría ser más proactiva en reunir las investigaciones y en actualizar las pautas para ayudar a los empleadores y a las empresas de inteligencia artificial a cumplir con la ley.

Behm añade que la EEOC podría seguir otras vías de actuación, incluida la acusación del comisionado, que permite a los comisionados iniciar una investigación sobre una sospecha de discriminación sin requerir una demanda individual (Sonderling afirma que está considerando ese tipo de acusación). También sugiere que la EEOC consulte a los grupos de defensa para desarrollar pautas para las empresas de inteligencia artificial para representar mejor a las personas con discapacidades en sus modelos algorítmicos.

Behm cree poco probable que las empresas de inteligencia artificial y los empleadores estén dejando atrás a las personas con discapacidades a propósito. Pero advierte que "no han invertido el tiempo y el esfuerzo necesarios para comprender los sistemas que están tomando decisiones que cambian la vida para muchas personas: ¿me contratarán o no? ¿Podré mantener a mi familia o no?"

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. La horrible 'app' de 'deepfakes' que coloca a mujeres en videos porno

    Se trata de algo sobre lo que los expertos llevan tiempo advirtiendo y eleva este tipo de abusos al siguiente nivel. Las consecuencias psicológicas y sociales de esta especie de violación pueden alargarse durante años y también afectan a los hombres en países donde se castiga la homosexualidad 

  2. Los datos biométricos de los afganos, arma para la venganza talibana

    Con decenas de datos por persona, desde escáneres de iris y vínculos familiares hasta su fruta favorita, el sistema destinado a reducir el fraude en las fuerzas de seguridad del país pondría en peligro a los ciudadanos registrados

  3. El perturbador aumento del uso del reconocimiento facial de EE. UU.

    A falta de regulación federal, un informe revela que las agencias nacionales del país lo utilizan cada vez más, en muchas ocasiones sin una supervisión adecuada, y la tendencia no para de aumentar. Además, muchas de ellas utilizan el controvertido sistema de Clearview AI