.

Ética

Cómo excluye internet a las personas que no hablan inglés

1

La tecnología amplifica la brecha del idioma de millones de personas y crea barreras en vez de eliminarlas. Esto les hace más débiles ante las campañas de desinformación y para acceder a servicios públicos, pero por fortuna existen movimientos para conseguir la llamada justicia lingüística

  • por Tate Ryan-mosley | traducido por Ana Milutinovic
  • 13 Mayo, 2021

Jennifer Xiong pasó todo el verano pasado en California (EE. UU.) ayudando al grupo étnico hmong a registrarse para votar en las elecciones presidenciales de Estados Unidos. Los hmong provienen de las montañas de China, Vietnam, Laos y Tailandia, pero no tienen un país propio, y Xiong fue la organizadora voluntaria en Hmong Innovating Politics, o HIP, en Fresno (EE. UU.). Hay alrededor de 300.000 personas del pueblo hmong en Estados Unidos y Xiong estuvo durante horas haciendo operaciones bancarias por teléfono y trabajando en los anuncios para emitirlos en las cadenas de radio y televisión hmong. Fue un trabajo inspirador. Xiong admite: "Esto fue algo completamente nuevo para mí. Las personas jóvenes, progresistas y principalmente mujeres que realizan este trabajo en nuestra comunidad son muy pocas, y sabía que iba a ser una gran hazaña". Y sí que lo fue. La participación de los estadounidenses de origen asiático en las elecciones de 2020 fue extraordinaria, y los analistas aseguran que la participación entre los ciudadanos de la comunidad hmong fue la más alta que pueden recordar. 

Pero Xiong confiesa que también fue una experiencia desalentadora

Aunque los hmong tienen vínculos con Estados Unidos desde hace bastante tiempo —a muchos se les animó a emigrar a través del Pacífico después de ser reclutados para apoyar a Estados Unidos durante la guerra de Vietnam—, a menudo quedan fuera del discurso político dominante. ¿Un ejemplo? En el sitio web de la secretaría del condado de Fresno, la página gubernamental para el registro de votantes tiene la opción de traducir la página completa al hmong, pero, según Xiong, gran parte de la información está mal traducida.  Y desde el principio: en vez de la palabra hmong para "hola" o "bienvenido", Xiong dice que aparece "algo que significaría 'su señoría' o 'su majestad'". 

Ver algo tan simple hecho de forma tan errónea resulta frustrante y desagradable. "No solo fue traducido probablemente con Google Translate, sino que ni siquiera fue editado ni revisado por pares para que hubiera fluidez y coherencia", resalta Xiong.

Xiong reconoce que este tipo de descuido es común online, y es una de las razones por las que ella y otros miembros de la comunidad hmong pueden sentirse excluidos de la política.

No son los únicos que tienen la sensación de que el mundo digital no fue creado para ellos. La web en sí se basa en una arquitectura que prioriza el inglés, y la mayoría de las grandes plataformas de redes sociales que albergan el discurso público en Estados Unidos también ponen el inglés en primer lugar. 

Y, a medida que las tecnologías se convierten en sustitutos de los espacios públicos en Estados Unidos, la primacía del inglés se ha magnificado. Para los estadounidenses de origen asiático, el cambio al mundo digital significa que el acceso a las instituciones democráticas, desde el registro de votantes hasta las noticias locales, se ve obstaculizado por las barreras lingüísticas

Eso también supone un problema en la atención médica. Durante la pandemia, cuando los ciudadanos negros, hispanos y nativos tenían dos o tres veces más probabilidades de acabar ingresados o de morir que los enfermos blancos, estas barreras añaden otra carga: el Hospital Brigham and Women's de Boston (EE. UU.) descubrió que los pacientes que no hablaban inglés tenían un 35 % más probabilidades de morir de COVID-19 que aquellos que sí lo hablaban. Los problemas de traducción no son el único obstáculo. Xiong explica que, cuando los hablantes de hmong intentaban pedir citas para la vacunación, se les preguntaba su signo del zodíaco como pregunta de seguridad, a pesar de que muchos en esta comunidad no están familiarizados con la astrología occidental.

En tiempos normales, superar estos desafíos sería bastante complicado, ya que los estadounidenses de origen asiático son el grupo étnico con mayor diversidad lingüística en Estados Unidos. Pero, después de un año en el que se ha notado un aumento drástico en los ataques online y del mundo real contra los estadounidenses de origen asiático, la situación se ha vuelto urgente.

"No detectan la desinformación"

La directora ejecutiva de la organización sin ánimo de lucro que promueve el compromiso cívico entre los asiáticos y los isleños del Pacífico APIAVote, Christine Chen, señala que la vida política siempre ha sido "excluyente" para los asiáticos en Estados Unidos, pero "con los espacios digitales, resulta aún más desafiante. Es mucho más fácil estar aislado". 

Las grandes plataformas como Facebook, Twitter y YouTube son populares entre los estadounidenses de origen asiático, al igual que las apps de mensajería como WeChat, WhatsApp y Line. Los canales de comunicación que utilizan las personas a menudo dependen de su origen étnico. Durante la campaña electoral, Chen se dedicó a construir una red de voluntarios para entrar y salir de esos aislamientos y lograr así el máximo impacto. En ese momento, la desinformación dirigida a los estadounidenses de origen asiático circulaba de forma desenfrenada en los grupos de WeChat y en Facebook y Twitter, donde la moderación de contenido es menos efectiva en los idiomas distintos del inglés. 

Los voluntarios de APIAVote se unían a diferentes grupos en plataformas para controlar la desinformación mientras animaban a los miembros a votar. Por ejemplo, los voluntarios descubrieron que los vietnamitas-estadounidenses, teniendo en cuenta sus temores al comunismo, recibían la información de que Joe Biden era socialista, y otros mensajes políticos similares se dirigían a los cubanoestadounidenses.

Chen señala que, si bien las políticas de moderación de contenido de Facebook, Twitter y otras plataformas filtran una parte de la desinformación más obvia en inglés, el sistema a menudo no detecta ese contenido cuando está en otros idiomas. Ese trabajo era realizado en parte por voluntarios como su equipo, que buscaban la desinformación y estaban capacitados para desactivarla y minimizar su difusión. "Esos mecanismos que deberían captar ciertas palabras y cosas no detectan siempre esa desinformación o la información errónea cuando está en un idioma diferente", asegura.

Los servicios y tecnologías de traducción de Google, como Translatotron y los auriculares para la traducción en tiempo real, utilizan la inteligencia artificial (IA) para traducir entre idiomas. Pero Xiong considera que estas herramientas son inadecuadas para el hmong, un idioma muy complejo donde el contexto es increíblemente importante: "Creo que nos hemos vuelto realmente complacientes y dependientes de los sistemas avanzados como Google. Afirman ser accesibles para los idiomas, y luego lo leo y aparece algo totalmente diferente". 

(Un portavoz de Google ha admitido que los idiomas minoritarios "plantean un trabajo de traducción más difícil", pero ha asegurado que la empresa ha "invertido en la investigación que beneficia particularmente a las traducciones de idiomas de pocos recursos", mediante el aprendizaje automático y los comentarios de la comunidad).

Hasta el fondo

Los desafíos de las lenguas en entornos online van más allá de Estados Unidos hasta, literalmente, el código subyacente. El investigador y científico de datos en el grupo de expertos de Sri Lanka LIRNEasia Yudhanjaya Wijeratne comenzó en 2018 a rastrear las redes de bots cuya actividad en las plataformas sociales fomentaba la violencia contra los musulmanes: en febrero y marzo de ese año, una serie de revueltas de cingaleses budistas tuvieron como objetivo a los musulmanes y las mezquitas en las ciudades de Ampara y Kandy (ambas en Sri Lanka). Su equipo documentó "la lógica de la caza" de los bots, catalogó cientos de miles de publicaciones en las redes sociales cingalesas y envió sus hallazgos a Twitter y Facebook. "Decían todo tipo de cosas bonitas y bien intencionadas, básicamente declaraciones prediseñadas", recuerda. (En un comunicado, Twitter afirma que utiliza revisión humana y sistemas automatizados para "aplicar nuestras reglas de manera imparcial a todas las personas en el servicio, independientemente de sus antecedentes, ideología o ubicación en el espectro político").

Contactado por MIT Technology Review, un portavoz de Facebook explicó que la compañía había encargado un estudio independiente de derechos humanos sobre el papel que la plataforma había tenido en la violencia en Sri Lanka, publicado en mayo de 2020, e hizo cambios a raíz de los ataques, incluida la contratación de decenas de moderadores de contenido de cingalés y tamil. "Implementamos la tecnología proactiva de detección de discursos de odio en cingalés para ayudarnos a identificar de manera más rápida y eficaz el contenido potencialmente infractor", explicaron.

"Lo que puedo hacer con tres líneas de código en Python en inglés me costó literalmente dos años de mirar 28 millones de palabras en cingalés"

Yudhanjaya Wijeratne, LIRNEasia

Cuando el comportamiento de los bots continuó, Wijeratne se mostró escéptico ante los clichés. Decidió analizar las bibliotecas de códigos y las herramientas de software que usaban las empresas, y descubrió que aún no se habían creado los mecanismos para controlar el discurso de odio en la mayoría de los idiomas distintos del inglés

"De hecho, gran parte de la investigación para muchos idiomas como el nuestro simplemente no se ha realizado aún", subraya Wijeratne. "Lo que puedo hacer con tres líneas de código en Python en inglés me costó literalmente dos años de mirar 28 millones de palabras en cingalés para construir los corpus y las herramientas principales, y luego llevar las cosas a ese nivel en el que quizá podía realizar ese tipo de análisis de texto".

Después de que en abril de 2019 varios suicidas atacaran iglesias de Colombo, la capital de Sri Lanka, Wijeratne construyó una herramienta para analizar el discurso de odio y la desinformación en cingalés y tamil. El sistema, denominado Watchdog, es una aplicación gratuita para móviles que añade noticias y adjunta advertencias a las publicaciones falsas. Esos avisos provienen de los voluntarios formados en la verificación de datos. 

Wijeratne subraya que este trabajo va mucho más allá de la traducción. "Muchos de los algoritmos que damos por sentados y que a menudo se citan en investigaciones, especialmente en el procesamiento del lenguaje natural, muestran excelentes resultados para el inglés", añade. "Sin embargo, otros algoritmos idénticos, incluso los utilizados en idiomas que se diferencian muy poco, como las de la familia de las lenguas germánicas occidentales o de las romances, pueden dar resultados completamente diferentes". 

El procesamiento del lenguaje natural es la base de los sistemas automatizados de moderación de contenido. Wijeratne publicó un artículo en 2019 que examinó las discrepancias entre su precisión en diferentes idiomas y argumentaba que cuantos más recursos computacionales existen para un lenguaje, como conjuntos de datos y páginas web, mejor pueden funcionar los algoritmos. Los idiomas de los países o comunidades más pobres están en desventaja.

"Si estamos construyendo, digamos, el Empire State Building para el inglés, tenemos los planos. Tenemos los materiales. Todo está a mano y solo hay que juntar estas cosas. Para todos los demás idiomas, no existen los planos. No tenemos ni idea de dónde sacar el hormigón. No hay acero ni tampoco trabajadores, así que estaremos ahí poniendo ladrillo sobre ladrillo y esperando a que tal vez nuestros nietos terminen el proyecto", explica.

Problemas profundamente arraigados

El movimiento para proporcionar esos planos se conoce como justicia lingüística y no es nuevo. La American Bar Association describe la justicia lingüística como un "marco" que preserva los derechos de las personas "a comunicarse, comprender y ser entendidos en el idioma en el que prefieren y en el cual se sienten más cómodos y fuertes".

El camino hacia la justicia lingüística es frágil. Las empresas tecnológicas y los proveedores de servicios gubernamentales tendrían que darle una prioridad bastante más alta e invertir muchos más recursos en su realización. Wijeratne señala que el racismo, el discurso de odio y la exclusión de los asiáticos, especialmente en Estados Unidos, existían mucho antes de internet. Incluso si se pudiera lograr la justicia lingüística, no se solucionarán estos problemas profundamente arraigados.

Pero, para Xiong, la justicia lingüística es un gran objetivo que cree crucial para la comunidad hmong.

Después de las elecciones, Xiong asumió un nuevo rol en su organización, buscando conectar a la comunidad hmong de California con los servicios públicos como el censo, la secretaría del condado y el registro de vacunación. Su principal objetivo consiste en dar a "conocer a la comunidad ahí donde esté", ya sea en la radio en hmong o en inglés a través de Facebook Live, y luego amplificar la visibilidad del pueblo hmong al público en general. Sin embargo, todos los días tiene que afrontar los desequilibrios tecnológicos que excluyen a personas de la conversación y les impiden el acceso a los recursos.

La igualdad significaría "vivir en un mundo donde la interpretación y la traducción son la norma. No hay que preguntar si hay suficiente presupuesto para ello, no hay que cuestionar si es algo importante o valioso, sino priorizarlo cuando se trata del marco jurídico y los espacios públicos", concluye.

Ética

  1. Las jornadas de trabajo extenuantes tras el secreto del Amazon coreano

    El gigante Coupang utiliza IA para prometer una entrega casi instantánea. Pero la velocidad va acompañada de preocupantes problemas laborales, incluidas las muertes de sus empleados. Algunos de sus representantes no solo han pedido mejorar las condiciones laborales, sino también relajar los plazos de entrega

  2. Radiografía del vocabulario de las 'Big Tech' sobre la ética de la IA

    El sector de la inteligencia artificial ha diseñado una serie de términos a su medida para que parezca que se preocupa por desarrollar una tecnología justa y responsable. Ofrecemos una guía práctica para decodificar su glosario y cuestionar las suposiciones y principios que plantean

  3. La IA de Facebook discrimina a las mujeres en los anuncios de trabajo

    Una auditoría revela que dos puestos de trabajo similares se mostraron de forma desigual en función del género, aunque este no afectaba al desempeño. No es la primera vez que se destapa este tipo de ilegalidad en los algoritmos publicitarios de la red social, que no parece estar haciendo gran cosa por solucionarlo