.

NYU Book Press

Computación

"Las latinas y asiáticas están muy sexualizadas en los buscadores"

1

Cuando Safiya Umoja Noble descubrió con horror qué resultados ofrecía Google al buscar "chicas negras", empezó a investigar cómo los algoritmos discriminan a las mujeres y a las minorías. Aunque cree que la situación ha mejorado un poco, la inteligencia artificial podría empeorarla aún más

  • por Jackie Snow | traducido por Mariana Díaz
  • 08 Marzo, 2018

Puede parecer que internet es un campo de juego equilibrado, pero no lo es. Un día mientras utilizaba el motor de búsqueda de Google, Safiya Umoja Noble se topó cara a cara con este hecho mientras buscaba temas interesantes para sus sobrinas. Cuando buscó el término "chicas negras" en el buscador, descubrió que la mayoría de los resultados que ofrecía el algoritmo eran páginas de pornografía.

Crédito: Cortesía de Safiya Umoja Noble.

Noble estaba horrorizada, pero no sorprendida. Esta profesora de Comunicación de la Universidad de California (EE. UU.) lleva años defendiendo que los valores que dominan la web son un reflejo de los valores de sus propios creadores, en su mayoría hombres blancos occidentales, y que dichos valores no representan a las minorías ni a las mujeres. En su último libro Algorithms of Oppression (Algoritmos de opresión), Noble narra cómo después de aquella fatídica búsqueda en Google decidió empezar su investigación. La obra también explora las estructuras ocultas que dan forma a cómo obtenemos información a través de internet.

El libro, publicado en febrero, argumenta que los algoritmos de los motores de búsqueda no son tan neutrales como a Google le gustaría pensar. Los algoritmos ascienden algunos resultados por encima de otros e incluso una pieza de código de aspecto neutro puede reflejar los prejuicios de la sociedad.  Además, sin una idea de cómo funcionan los algoritmos ni un contexto más amplio, las búsquedas pueden modelar de forma injusta la discusión de un tema como el de las chicas negras.

Noble habló con MIT Technology Review sobre los problemas inherentes al sistema actual y de las estrategias que Google podría seguir para mejorar. Pero también señala que la inteligencia artificial podría empeorar las cosas.

¿Cuáles son los errores que la gente comete al pensar en el funcionamiento de los motores de búsqueda?

Si estamos buscando el Starbucks más cercano, una cita específica, o algo muy preciso que se entienda fácilmente, funcionan bien. Pero si nos metemos en conceptos más complicados en torno a la identidad o el conocimiento, los motores de búsqueda comienzan a fallar. En principio esto no debería ser un gran problema, pero el público confía en los motores de búsqueda para recibir información de lo que cree que será la verdad, de o algo que se ha investigado, o de algo que sea creíble. Aquí es donde, en mi opinión, el público está confundido sobre lo que realmente son los motores de búsqueda.

Para abordar los sesgos, Google suele eliminar ciertos resultados. ¿Hay un enfoque que sea mejor?

Podríamos pensar en recurrir a un proyecto tan ambicioso como organizar todo el conocimiento del mundo, o podríamos replanteárnoslo y decir: "Esta es una tecnología imperfecta. Es manipulable. Vamos a analizar cómo se puede manipular. Vamos a aumentar la transparencia de ese tipo de dimensiones en nuestro producto para que se conozca la naturaleza profundamente subjetiva del resultado". Pero la posición de muchas empresas, no solo la de Google, es que [ellas] ofrecen resultados en los que usted puede confiar y con los que puede contar, y aquí la cosa se complica.

¿Cómo podría el aprendizaje automático perpetuar parte del racismo y el machismo sobre el que escribe?

Llevo tiempo diciendo que en este siglo, la inteligencia artificial o los sistemas automatizados de toma de decisiones, se convertirán en un problema de derechos humanos. Creo firmemente que, dado que los algoritmos y los proyectos de aprendizaje automático usan datos parciales, incompletos y defectuosos, lo que le estamos enseñando a las máquinas es a tomar decisiones basadas en esa información. Y sabemos que [eso] conducirá a una variedad de resultados diversos. Y déjeme añadir que la inteligencia artificial será cada vez más difícil de abordar porque nadie tendrá claro qué datos se usaron para entrenar a ese programa, o para crear estos sistemas. Por ejemplo, hay muchos conjuntos de datos diferentes que no están estandarizados y que se combinan para tomar decisiones.

Desde que buscó por primera vez el término "chicas negras" en 2010, ¿cree que las cosas han ido a mejor o a peor?

Desde que comencé a escribir y hablar públicamente sobre que el término de chicas negras está asociado particularmente con la pornografía, las cosas han cambiado. Ahora la pornografía y el contenido hipersexualizado no salen en la primera página de los resultados, así que creo que ha habido una mejora silenciosa que se produjo de forma discreta. Pero otras comunidades, como las latinas y las asiáticas, todavía están muy sexualizadas en los resultados de búsqueda.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Así funciona el sistema que logró teletransportar el primer objeto de la Tierra a la órbita

    El hito requirió crear un detector de fotones únicos que funcionara en el espacio pero que no se viera afectado por el ruido ambiental. El equipo chino que lo hizo ha posicionado al país como líder indiscutible de la comunicación cuántica espacial, una técnica que podría ser muy importante en el futuro

  2. Microsoft: el mayor agente de ciberseguridad gracias a Windows

    La compañía ha sido elegida por el Gobierno de EE. UU. para que controle a los hackers más peligrosos del mundo. Además de los expertos que hay en su equipo, la compañía dispone de otro superpoder: la omnipresencia de sus productos le permiten ver y oír casi todo lo que pasa en internet

  3. Se busca tecnología para detectar explosivos mejor que los perros

    El Ejército estadounidense cuenta con más de mil perros entre sus filas. Pese a que los investigadores han intentado desarrollar dispositivos que superen la sensibilidad de los hocicos de los canes, por el momento los rastreadores electrónicos de bombas son menos efectivos y requieren demasiada infraestructura