.

Inteligencia Artificial

La inteligencia artificial nos vende productos machistas y racistas sin que nadie se dé cuenta

1

Igual que algunas mujeres murieron en accidentes de coche porque las pruebas de seguridad se habían hecho con muñecos con forma de hombre, los productos habilitados por la IA incluyen sesgos, probablemente inconscientes, que se están colando en el mercado

  • por Tabitha Goldstaub | traducido por Patricia R. Guevara
  • 30 Octubre, 2017

El núcleo central de la inteligencia artificial (IA) se compone de un proceso de dos fases: primero se le asigna un objetivo y después ella misma diseña una forma de conseguirlo. Por lo tanto, su forma de alcanzar dicha meta no siempre resulta demasiado transparente. Por eso, si usted está inculcando un cierto sesgo a una máquina de forma inconsciente, es posible que desconozca que, en efecto, el algoritmo también tiene ese sesgo. El resultado es que ese algoritmo podría ser perjudicial para las mujeres, pero costaría mucho averiguar exactamente por qué.

Esto ya ha pasado con la tecnología tradicional: hemos visto mujeres muriendo en accidentes automovilísticos porque los muñecos de prueba de choque tenían la forma de un hombre en lugar de la de una mujer. Con la IA podría haber situaciones similares de vida o muerte, en pruebas de drogas, vehículos autónomos y cosas por el estilo.

También hay algunos ejemplos [del sesgo de género de la inteligencia artificial actual]: anuncios de Google que muestran anuncios [de trabajo] con mayores sueldos a los hombres que a las mujeres. Podemos plantear otras hipótesis de otras situaciones en las que podría suceder: ¿qué pasaría si las mujeres no pudieran obtener los mismos préstamos, hipotecas o seguros?

No tengo una visión distópica de la inteligencia artificial. No creo que vaya a haber robots asesinos. Estoy mucho más centrada en las aplicaciones limitadas, y creo que, si nos fijamos en cada una de ellas, existe la posibilidad de que afecte negativamente a las mujeres. No creo que la inteligencia artificial sea el problema; es un problema adicional, en lugar de la causa. Estamos hablando del riesgo de que nuestro sexismo y racismo inconsciente se transmita a las máquinas que estamos construyendo.

¿Cómo conseguimos que alguien que está construyendo una IA tenga en cuenta estas cosas? Necesitamos que los consumidores exijan una inteligencia artificial ética. La gente no es demasiado consciente de que el problema va más allá de una simple cuestión de género: se trata de un problema real y fundamental del producto.

Tabitha Goldstaub es cofundadora de CognitionX, una compañía que ayuda a las empresas a implementar la inteligencia artificial

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. La sutil discriminación de las IA de contratación contra la discapacidad

    A medida que las herramientas de selección de personal impulsadas por inteligencia artificial se vuelven más comunes, los defensores de las personas con discapacidades advierten sobre su impacto negativo en el colectivo y sobre la falta de regulación y auditorías para las empresas responsables de los sistemas

  2. Hemos probado dos IA de contratación de personal y ninguna nos gusta

    Curious Thing nos dio 6 sobre 9 en inglés a pesar de estar hablando en alemán y MyInterview dedujo rasgos de personalidad a partir de la entonación. Este experimento demuestra que, aunque la inteligencia artificial puede ayudar a reducir sesgos en procesos de selección, su rendimiento es muy imperfecto

  3. Empleos 2.0: aprenda a seducir al algoritmo si quiere lograr un trabajo

    La inteligencia artificial se ha colado en todos los pasos del proceso de contratación y, aunque las plataformas como LinkedIn se esfuerzan por minimizar sus inevitables sesgos, los algoritmos no siempre juegan limpio y serán los primeros en decidir si su currículum llega a manos de reclutadores humanos o no