.

NeONBRAND / Unsplash

Inteligencia Artificial

La presión pública obliga a Facebook a buscar racismo en sus algoritmos

1

Tras años de protestas y mala prensa, la red social ha creado un equipo interno para analizar los posibles sesgos racistas de sus plataformas. La medida, que llega bastante tarde, no es más que un tímido primer paso para abordar este enorme problema, para el que, además, nadie ha encontrado una solución clara

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 06 Octubre, 2020

La noticia: tras los recientes conflictos raciales provocados por los asesinatos de ciudadanos negros a manos de la policía de EE. UU., Facebook afirmó hace un tiempo la creación de nuevos equipos internos para buscar sesgos raciales en los algoritmos que impulsan su red social principal e Instagram, según el Wall Street Journal. En concreto, las investigaciones abordarán los efectos adversos del aprendizaje automático (que pueden codificar el racismo implícito en los datos de entrenamiento) en los grupos de negros, hispanos y de otras minorías.

Por qué es importante: en los últimos años, cada vez más investigadores y activistas han puesto en el punto de mira el problema del sesgo en la inteligencia artificial (IA) y el impacto desproporcionado que tiene sobre las minorías. Facebook, que utiliza aprendizaje automático para organizar la experiencia diaria de sus 2.500 millones de usuarios, va con retraso en un análisis interno de este tipo. Ya existen pruebas de que los algoritmos de publicación de anuncios en Facebook discriminan por raza y permiten a los anunciantes evitar que algunos grupos raciales específicos vean sus anuncios, por ejemplo.

Bajo presión: Facebook ya tiene un historial de esquivar las acusaciones por sesgo en sus sistemas. Han hecho falta varios años de mala prensa y presión por parte de los grupos de derechos civiles para llegar a este punto. Facebook ha creado estos equipos después de un boicot publicitario de un mes organizado por distintos grupos de derechos civiles, incluida la Liga Anti-Difamación, Color of Change y NAACP, que llevó a grandes empresas como Coca-Cola, Disney, McDonald's y Starbucks a suspender sus campañas.

No hay una solución fácil: la medida es bien recibida. Pero iniciar una investigación está muy lejos de resolver el problema del sesgo racial, especialmente cuando nadie sabe realmente cómo solucionarlo. En la mayoría de los casos, existe un sesgo en los datos de entrenamiento y no se han acordado buenas prácticas para eliminarlo. Y ajustar esos datos, una manera de acción algorítmica afirmativa, resulta controvertido. Además, el sesgo del aprendizaje automático es solo uno de los problemas de las redes sociales en torno a la raza. Si Facebook va a analizar sus algoritmos, debería ser parte de una revisión más amplia que también tendría que lidiar con las políticas que ofrecen el servicio de las plataformas a los políticos racistas, a los grupos de supremacía blanca y a los que niegan el Holocausto.

Desde la compañía, la portavoz de Instagram, Stephanie Otway, afirma: "Seguiremos trabajando estrechamente con el equipo encargado de IA de Facebook para asegurarnos de detectar posibles sesgos en nuestras respectivas plataformas. Todavía es muy pronto y planeamos compartir más detalles sobre este trabajo en los próximos meses".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Es hora de cambiar las leyes que dan ventaja a la IA frente al humano

    En su último libro, 'El robot razonable: la inteligencia artificial y la ley', Ryan Abbott advierte que las políticas fiscales fomentan la automatización, útil o no, porque la mano de obra se grava más que el capital, y defiende una regulación neutra que garantice los ingresos fiscales y la productividad

  2. Una revolucionaria técnica de IA aprende casi sin datos de ejemplo

    El aprendizaje 'less than one-shot', o LO-shot, puede enseñar a un modelo de inteligencia artificial a identificar más tipos de objetos que el número de clases de ejemplos con los que ha sido entrenado. Podría lograr que la IA sea más accesible para empresas e industrias y mejorar la privacidad de los datos

  3. GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

    Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta