.

NYU Book Press

Computación

"Las latinas y asiáticas están muy sexualizadas en los buscadores"

1

Cuando Safiya Umoja Noble descubrió con horror qué resultados ofrecía Google al buscar "chicas negras", empezó a investigar cómo los algoritmos discriminan a las mujeres y a las minorías. Aunque cree que la situación ha mejorado un poco, la inteligencia artificial podría empeorarla aún más

  • por Jackie Snow | traducido por Mariana Díaz
  • 08 Marzo, 2018

Puede parecer que internet es un campo de juego equilibrado, pero no lo es. Un día mientras utilizaba el motor de búsqueda de Google, Safiya Umoja Noble se topó cara a cara con este hecho mientras buscaba temas interesantes para sus sobrinas. Cuando buscó el término "chicas negras" en el buscador, descubrió que la mayoría de los resultados que ofrecía el algoritmo eran páginas de pornografía.

Crédito: Cortesía de Safiya Umoja Noble.

Noble estaba horrorizada, pero no sorprendida. Esta profesora de Comunicación de la Universidad de California (EE. UU.) lleva años defendiendo que los valores que dominan la web son un reflejo de los valores de sus propios creadores, en su mayoría hombres blancos occidentales, y que dichos valores no representan a las minorías ni a las mujeres. En su último libro Algorithms of Oppression (Algoritmos de opresión), Noble narra cómo después de aquella fatídica búsqueda en Google decidió empezar su investigación. La obra también explora las estructuras ocultas que dan forma a cómo obtenemos información a través de internet.

El libro, publicado en febrero, argumenta que los algoritmos de los motores de búsqueda no son tan neutrales como a Google le gustaría pensar. Los algoritmos ascienden algunos resultados por encima de otros e incluso una pieza de código de aspecto neutro puede reflejar los prejuicios de la sociedad.  Además, sin una idea de cómo funcionan los algoritmos ni un contexto más amplio, las búsquedas pueden modelar de forma injusta la discusión de un tema como el de las chicas negras.

Noble habló con MIT Technology Review sobre los problemas inherentes al sistema actual y de las estrategias que Google podría seguir para mejorar. Pero también señala que la inteligencia artificial podría empeorar las cosas.

¿Cuáles son los errores que la gente comete al pensar en el funcionamiento de los motores de búsqueda?

Si estamos buscando el Starbucks más cercano, una cita específica, o algo muy preciso que se entienda fácilmente, funcionan bien. Pero si nos metemos en conceptos más complicados en torno a la identidad o el conocimiento, los motores de búsqueda comienzan a fallar. En principio esto no debería ser un gran problema, pero el público confía en los motores de búsqueda para recibir información de lo que cree que será la verdad, de o algo que se ha investigado, o de algo que sea creíble. Aquí es donde, en mi opinión, el público está confundido sobre lo que realmente son los motores de búsqueda.

Para abordar los sesgos, Google suele eliminar ciertos resultados. ¿Hay un enfoque que sea mejor?

Podríamos pensar en recurrir a un proyecto tan ambicioso como organizar todo el conocimiento del mundo, o podríamos replanteárnoslo y decir: "Esta es una tecnología imperfecta. Es manipulable. Vamos a analizar cómo se puede manipular. Vamos a aumentar la transparencia de ese tipo de dimensiones en nuestro producto para que se conozca la naturaleza profundamente subjetiva del resultado". Pero la posición de muchas empresas, no solo la de Google, es que [ellas] ofrecen resultados en los que usted puede confiar y con los que puede contar, y aquí la cosa se complica.

¿Cómo podría el aprendizaje automático perpetuar parte del racismo y el machismo sobre el que escribe?

Llevo tiempo diciendo que en este siglo, la inteligencia artificial o los sistemas automatizados de toma de decisiones, se convertirán en un problema de derechos humanos. Creo firmemente que, dado que los algoritmos y los proyectos de aprendizaje automático usan datos parciales, incompletos y defectuosos, lo que le estamos enseñando a las máquinas es a tomar decisiones basadas en esa información. Y sabemos que [eso] conducirá a una variedad de resultados diversos. Y déjeme añadir que la inteligencia artificial será cada vez más difícil de abordar porque nadie tendrá claro qué datos se usaron para entrenar a ese programa, o para crear estos sistemas. Por ejemplo, hay muchos conjuntos de datos diferentes que no están estandarizados y que se combinan para tomar decisiones.

Desde que buscó por primera vez el término "chicas negras" en 2010, ¿cree que las cosas han ido a mejor o a peor?

Desde que comencé a escribir y hablar públicamente sobre que el término de chicas negras está asociado particularmente con la pornografía, las cosas han cambiado. Ahora la pornografía y el contenido hipersexualizado no salen en la primera página de los resultados, así que creo que ha habido una mejora silenciosa que se produjo de forma discreta. Pero otras comunidades, como las latinas y las asiáticas, todavía están muy sexualizadas en los resultados de búsqueda.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. ASML, la empresa que revolucionó la fabricación de chips y quiere seguir haciéndolo

    ‘MIT Technology Review’ se reunió con el CTO saliente, Martin van den Brink, para hablar del ascenso de la empresa a la hegemonía y de la vida y muerte de la Ley de Moore  

    Dos trabajadores de ASML pasan por delante de la máquina UVE de alta apertura numérica en Veldhoven
  2. ‘Chiplets’: el arma de China en su batalla tecnológica contra EE UU

    Al conectar varios chips menos avanzados en uno, las empresas chinas podrían eludir las sanciones impuestas por el gobierno estadounidense.

  3. Esta ciudad china quiere ser el Silicon Valley de los ‘chiplets’

    Wuxi, el centro chino del envasado de chips, está invirtiendo en la investigación de ‘chiplets’ para potenciar su papel en la industria de semiconductores