.

NYU Book Press

Computación

"Las latinas y asiáticas están muy sexualizadas en los buscadores"

1

Cuando Safiya Umoja Noble descubrió con horror qué resultados ofrecía Google al buscar "chicas negras", empezó a investigar cómo los algoritmos discriminan a las mujeres y a las minorías. Aunque cree que la situación ha mejorado un poco, la inteligencia artificial podría empeorarla aún más

  • por Jackie Snow | traducido por Mariana Díaz
  • 08 Marzo, 2018

Puede parecer que internet es un campo de juego equilibrado, pero no lo es. Un día mientras utilizaba el motor de búsqueda de Google, Safiya Umoja Noble se topó cara a cara con este hecho mientras buscaba temas interesantes para sus sobrinas. Cuando buscó el término "chicas negras" en el buscador, descubrió que la mayoría de los resultados que ofrecía el algoritmo eran páginas de pornografía.

Crédito: Cortesía de Safiya Umoja Noble.

Noble estaba horrorizada, pero no sorprendida. Esta profesora de Comunicación de la Universidad de California (EE. UU.) lleva años defendiendo que los valores que dominan la web son un reflejo de los valores de sus propios creadores, en su mayoría hombres blancos occidentales, y que dichos valores no representan a las minorías ni a las mujeres. En su último libro Algorithms of Oppression (Algoritmos de opresión), Noble narra cómo después de aquella fatídica búsqueda en Google decidió empezar su investigación. La obra también explora las estructuras ocultas que dan forma a cómo obtenemos información a través de internet.

El libro, publicado en febrero, argumenta que los algoritmos de los motores de búsqueda no son tan neutrales como a Google le gustaría pensar. Los algoritmos ascienden algunos resultados por encima de otros e incluso una pieza de código de aspecto neutro puede reflejar los prejuicios de la sociedad.  Además, sin una idea de cómo funcionan los algoritmos ni un contexto más amplio, las búsquedas pueden modelar de forma injusta la discusión de un tema como el de las chicas negras.

Noble habló con MIT Technology Review sobre los problemas inherentes al sistema actual y de las estrategias que Google podría seguir para mejorar. Pero también señala que la inteligencia artificial podría empeorar las cosas.

¿Cuáles son los errores que la gente comete al pensar en el funcionamiento de los motores de búsqueda?

Si estamos buscando el Starbucks más cercano, una cita específica, o algo muy preciso que se entienda fácilmente, funcionan bien. Pero si nos metemos en conceptos más complicados en torno a la identidad o el conocimiento, los motores de búsqueda comienzan a fallar. En principio esto no debería ser un gran problema, pero el público confía en los motores de búsqueda para recibir información de lo que cree que será la verdad, de o algo que se ha investigado, o de algo que sea creíble. Aquí es donde, en mi opinión, el público está confundido sobre lo que realmente son los motores de búsqueda.

Para abordar los sesgos, Google suele eliminar ciertos resultados. ¿Hay un enfoque que sea mejor?

Podríamos pensar en recurrir a un proyecto tan ambicioso como organizar todo el conocimiento del mundo, o podríamos replanteárnoslo y decir: "Esta es una tecnología imperfecta. Es manipulable. Vamos a analizar cómo se puede manipular. Vamos a aumentar la transparencia de ese tipo de dimensiones en nuestro producto para que se conozca la naturaleza profundamente subjetiva del resultado". Pero la posición de muchas empresas, no solo la de Google, es que [ellas] ofrecen resultados en los que usted puede confiar y con los que puede contar, y aquí la cosa se complica.

¿Cómo podría el aprendizaje automático perpetuar parte del racismo y el machismo sobre el que escribe?

Llevo tiempo diciendo que en este siglo, la inteligencia artificial o los sistemas automatizados de toma de decisiones, se convertirán en un problema de derechos humanos. Creo firmemente que, dado que los algoritmos y los proyectos de aprendizaje automático usan datos parciales, incompletos y defectuosos, lo que le estamos enseñando a las máquinas es a tomar decisiones basadas en esa información. Y sabemos que [eso] conducirá a una variedad de resultados diversos. Y déjeme añadir que la inteligencia artificial será cada vez más difícil de abordar porque nadie tendrá claro qué datos se usaron para entrenar a ese programa, o para crear estos sistemas. Por ejemplo, hay muchos conjuntos de datos diferentes que no están estandarizados y que se combinan para tomar decisiones.

Desde que buscó por primera vez el término "chicas negras" en 2010, ¿cree que las cosas han ido a mejor o a peor?

Desde que comencé a escribir y hablar públicamente sobre que el término de chicas negras está asociado particularmente con la pornografía, las cosas han cambiado. Ahora la pornografía y el contenido hipersexualizado no salen en la primera página de los resultados, así que creo que ha habido una mejora silenciosa que se produjo de forma discreta. Pero otras comunidades, como las latinas y las asiáticas, todavía están muy sexualizadas en los resultados de búsqueda.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Seis razones por las que Huawei podría amenazar la seguridad mundial

    La detención en Canadá de la directora financiera de Huawei a petición de EE. UU. es el último episodio de los continuos temores a que el gigante tecnológico chino suponga un peligro para la seguridad. La posibilidad de que el país asiático instale puertas traseras en los equipos es una de las mayores preocupaciones

  2. Europa trabaja en un internet cuántico imposible de hackear

    El piloto espera estar listo en 2020 y conectará varias ciudades de los Países Bajos mediante una red para compartir datos a prueba de hackers. Pero aunque la teoría tiene sentido, todavía quedan muchos retos por delante y China también va muy deprisa en la carrera del internet cuántico

  3. Cómo Amazon colabora con la dura política migratoria de EE. UU.

    Una investigación ha revelado que el gigante proporciona infraestructura tecnológica al sistema de deportación del Departamento de Seguridad Nacional estadounidense. Otras agencias gubernamentales también hacen uso de la nube de Amazon pese a las críticas crecientes de algunos empleados