.

Getty

Inteligencia Artificial

Los líderes de la ética de la IA siguen repitiendo sesgos e injusticias

1

A pesar de los distintos esfuerzos internacionales por lograr que la inteligencia artificial sea justa y representativa para todos, los comités y juntas asesoras casi no tienen representación de grupos minoritarios ni de regiones e idiomas con poca influencia a nivel mundial. Eso tiene que cambiar 

  • por Abhishek Gupta | traducido por Ana Milutinovic
  • 17 Septiembre, 2020

Organizaciones y empresas internacionales están desarrollando a toda prisa las normas globales para el uso ético de la inteligencia artificial (IA). Ante tal esfuerzo, las declaraciones, manifiestos y recomendaciones están inundando internet. Pero todos ellos resultarán inútiles si no tienen en cuenta los contextos culturales y regionales en los que opera la IA.

Se ha demostrado en repetidas ocasiones que los sistemas de inteligencia artificial causan problemas que afectan de manera desproporcionada a los grupos marginales mientras benefician a un puñado de privilegiados. Los esfuerzos de crear la ética de la IA a nivel mundial, que se están llevando a cabo actualmente y de los cuales ya hay docenas, tienen como objetivo que todo el mundo se beneficie de esta tecnología y evitar que cause daños. En términos generales, los expertos están creando pautas y principios que los desarrolladores, financiadores y reguladores deben seguir. Estas pautas podrían incluir, por ejemplo, recomendar auditorías internas rutinarias o requerir protección para los datos personales de los usuarios.

Creemos que las intenciones de estos grupos son buenas intenciones y confiamos en el valor de su trabajo. No cabe duda de que la comunidad de la IA debería acordar un conjunto de definiciones y conceptos internacionales para que la IA sea ética. Pero si dicha comunidad no cuenta con más representación geográfica, generará una visión global de la ética de la IA que se limitará a reflejar las perspectivas de las personas de unas pocas regiones del mundo, concretamente América del Norte y el noroeste de Europa.

Este trabajo no es fácil ni sencillo. "Equidad", "privacidad" y "sesgo" significan cosas diferentes (pdf) en distintos lugares. La gente también tiene expectativas dispares sobre estos conceptos en función de sus propias realidades políticas, sociales y económicas. Los desafíos y riesgos que plantea la IA también difieren según la ubicación de cada uno.

En el mejor de los casos, si las organizaciones que trabajan en la ética global de la IA no son conscientes de esto, corren el riesgo de desarrollar estándares ineficaces y carentes de sentido en muchas regiones del mundo. En el peor de los casos, estos estándares defectuosos conducirán a sistemas y herramientas de inteligencia artificial que perpetúen los sesgos existentes e insensibles para con las culturas locales.

En 2018, por ejemplo, Facebook tardó en actuar en contra las noticias falsas que se difundían en Birmania y que condujeron a varias violaciones de los derechos humanos. Una evaluación (pdf) financiada por la empresa descubrió el descuido de la red social afirma que este se debió, en parte, a que las normas de la comunidad de Facebook y a las políticas de moderación de contenido no abordaban las realidades políticas y sociales del país.

Existe una clara falta de diversidad regional en muchas juntas asesoras, paneles de expertos y consejos de IA.

Para prevenir tales abusos, las empresas que trabajan en la creación de las reglas éticas para los sistemas y herramientas de inteligencia artificial deben involucrar a usuarios de todo el mundo para crear estándares apropiados para la gestión de estos sistemas. También deben ser conscientes de cómo se aplican sus políticas en diferentes contextos.

A pesar de los riesgos, existe una clara falta de diversidad regional en muchas juntas asesoras, paneles de expertos y consejos de IA designados por las principales organizaciones internacionales. El grupo asesor de expertos del proyecto AI for Children de Unicef, por ejemplo, no tiene representantes de Oriente Medio, África y Asia, que son las regiones con mayor concentración de niños y adultos jóvenes, como son.

Lamentablemente, todo el campo de la ética de la IA, tal y como es actualmente, corre el grave riesgo de limitarse a los idiomas, ideas, teorías y problemas de un puñado de regiones, principalmente América del Norte, Europa Occidental y Asia Oriental.

Esta falta de diversidad regional refleja la actual concentración de la investigación de IA (pdf): el 86 % de los artículos publicados en conferencias de IA en 2018 se atribuyeron a autores de Asia Oriental, América del Norte y Europa. Menos del 10 % de las referencias citadas en los artículos de IA publicados en estas regiones proceden de otra región. Las patentes también están muy concentradas: el 51 % de las patentes de IA publicadas en 2018 se atribuyeron a América del Norte.

Los que trabajamos en la ética de la IA haremos más daño que bien si permitimos que la falta de diversidad geográfica del campo defina nuestros propios esfuerzos. Si no tenemos cuidado, podríamos terminar codificando los sesgos históricos de la IA en las pautas que deformarán la tecnología para las generaciones venideras. Debemos comenzar a priorizar las voces de los países de ingresos bajos y medianos (especialmente las del "Sur Global") y las de las comunidades marginadas históricamente.

Los avances tecnológicos a menudo han beneficiado a Occidente mientras que en otros lugares intensificaban la desigualdad económica, la opresión política y la destrucción del medio ambiente. Incluir países no occidentales en la ética de la IA es la mejor manera de evitar que se repita este patrón.

La buena noticia es que hay muchos expertos y líderes de las regiones menos representadas que podrían ser incluidos en dichos grupos asesores. No obstante, muchas organizaciones internacionales parecen no esforzarse mucho para solicitar la participación de estas personas. El recientemente formado Consorcio de Ética Global de IA, por ejemplo, no tiene miembros fundadores que representen instituciones académicas o centros de investigación de Oriente Medio, África y América Latina. Esta omisión es un claro ejemplo de que los patrones coloniales (pdf) se repiten.

Si queremos construir sistemas de IA éticos, seguros e inclusivos en lugar de limitarnos a hacer un "lavado de cara ético", primero debemos generar confianza con aquellos que históricamente han sido perjudicados por estos mismos sistemas. Eso comienza con un gran compromiso.

En el Instituto de Ética de la IA de Montreal (Canadá), donde ambos trabajamos, intentamos adoptar un enfoque diferente. Organizamos reuniones virtuales de ética de la IA, debates abiertos a los que puede unirse cualquier persona con conexión a internet o teléfono. Durante estos eventos, nos hemos conectado con un grupo diverso de personas, desde un profesor que vive en Macao (China) hasta un estudiante universitario que estudia en Bombay (India).

Por otro lado, grupos como Partnership on AI, reconociendo la falta de diversidad geográfica en IA de manera más amplia, han recomendado cambios en las leyes de expedición de visados y han propuesto políticas que facilitan a los investigadores viajar y compartir su trabajo. La organización de base comunitaria Maskhane reúne a investigadores africanos de procesamiento del lenguaje natural para reforzar el trabajo de traducción automática que ha desatendido los idiomas no dominantes.

Resulta alentador ver que las organizaciones internacionales intentan incluir puntos de vista más diversos en sus debates sobre la IA. Es importante que todos recordemos que la diversidad regional y cultural es clave para cualquier conversación sobre la ética de la IA. Lograr que la IA responsable sea la norma, y no la excepción, resulta imposible sin las voces de las personas que aún no tienen poder e influencia.

*Abhishek Gupta es el fundador del Instituto de Ética de IA de Montreal e ingeniero de aprendizaje automático en Microsoft, donde participa en la Junta de IA Responsable de CSE. Victoria Heath es investigadora del Instituto de Ética de IA de Montreal e investigadora principal de la Asociación de la OTAN de Canadá .

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Es hora de cambiar las leyes que dan ventaja a la IA frente al humano

    En su último libro, 'El robot razonable: la inteligencia artificial y la ley', Ryan Abbott advierte que las políticas fiscales fomentan la automatización, útil o no, porque la mano de obra se grava más que el capital, y defiende una regulación neutra que garantice los ingresos fiscales y la productividad

  2. Una revolucionaria técnica de IA aprende casi sin datos de ejemplo

    El aprendizaje 'less than one-shot', o LO-shot, puede enseñar a un modelo de inteligencia artificial a identificar más tipos de objetos que el número de clases de ejemplos con los que ha sido entrenado. Podría lograr que la IA sea más accesible para empresas e industrias y mejorar la privacidad de los datos

  3. GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

    Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta