.

Associated Press

Cadenas de bloques y aplicaciones

Ocho cosas que Facebook debe hacer para mejorar la moderación de contenido

1

Aunque se trata de una tarea imprescindible, la red social la ha externalizado en trabajadores precarios y sin la formación necesaria para soportar la traumática experiencia. Además, debería duplicar el número de moderadores y hacer que toda la empresa sea más consciente del impacto de sus decisiones

  • por Charlotte Jee | traducido por Ana Milutinovic
  • 12 Junio, 2020

Imaginemos que Facebook dejara de hacer cualquier tipo de moderación de contenido ahora mismo. Cualquiera podría publicar lo que quisiera. La experiencia previa sugiere que la plataforma no tardaría en convertirse en un entorno infernal invadido por spam, acoso, delincuencia, decapitaciones terroristas, textos neonazis e imágenes de abuso sexual infantil. En ese escenario, muchísimos usuarios probablemente se irían, seguidos de los anunciantes y sus lucrativos beneficios para la plataforma.

Pero, a pesar de que la moderación es tan importante, no se la trata como tal. La gran mayoría de los 15.000 moderadores, que pasan todo el día decidiendo qué se puede publicar en Facebook y qué no, ni siquiera trabaja para Facebook. Todo el servicio de moderación de contenido recae en proveedores externos, que emplean a trabajadores temporales con contratos precarios en más de 20 sitios en todo el mundo.

Tienen que revisar centenares de publicaciones al día, muchas de las cuales resultan profundamente traumáticas. Los errores abundan, a pesar de la adopción de herramientas de inteligencia artificial para  separar los posts que requieren atención. Facebook ha admitido una tasa de error del 10 %, mediante el marcado de publicaciones para su eliminación que se deberían mantener o viceversa.

Dado que los revisores tienen que leer tres millones de publicaciones al día, eso equivale a 300.000 errores diarios, de los cuales, algunos pueden tener efectos mortales. Por ejemplo, los miembros del ejército de Birmania usaron Facebook en 2016 y 2017 para incitar al genocidio contra la minoría rohingya, mayoritariamente musulmana. La empresa luego admitió que no logró aplicar sus propias políticas que prohíben el discurso de odio y la incitación a la violencia.

Si queremos mejorar la moderación de contenido, Facebook debería contar con los moderadores de contenido internos, contratarlos como empleados a tiempo completo y duplicar su número, argumenta un nuevo informe del Centro Stern para las Empresas y los Derechos Humanos de la Universidad de Nueva York (EE. UU.).

"La moderación de contenido no es como otros servicios externalizados, como la cocina o la limpieza. Es un servicio central del negocio de las redes sociales, y por eso parece extraño que se trate como si fuera un problema periférico o de otros", destaca el subdirector del centro y autor del informe, Paul M. Barrett. 

¿Por qué los líderes de Facebook realizan el control de contenido de esta manera? Tiene que ver, al menos en parte, con el coste, según Barrett. A la compañía le resultaría muy caro aplicar las recomendaciones del informe. El coste probablemente ascendería a decenas de millones de euros (aunque viéndolo por otro lado, Facebook genera miles de millones de euros en ganancias cada año). Pero hay una segunda razón más compleja. "La actividad de moderación de contenido simplemente no encaja en la imagen de Silicon Valley (EE. UU.). Ciertos tipos de actividades son muy valoradas y glamorosas: la innovación de productos, marketing inteligente, ingeniería... el mundo detallista del control de contenido no encaja en eso", afirma.

Cree que es hora de que Facebook trate la moderación como una parte central de su negocio y que elevar su rango ayudaría a evitar el tipo de errores catastróficos como los de Birmania, así asumiría más responsabilidad y protegería mejor a los empleados de no dañar su salud mental.

Que la moderación del contenido implique estar expuesto a algún material horrible, parece una realidad inevitable incluso si el trabajo se lleva a cabo internamente. Sin embargo, hay mucho más que la empresa podría hacer para que eso sea más fácil: evaluar mejor a los moderadores para asegurarse de que sean realmente conscientes de los riesgos del trabajo, por ejemplo, y garantizarles la atención y asesoramiento de primer nivel.

Barrett cree que la moderación de contenido podría ser algo que todos los empleados de Facebook deberían realizar durante al menos un año como una especie de "turno de servicio" y para ayudarles a comprender el impacto de sus decisiones.

 El informe propone ocho recomendaciones para Facebook:

  • Dejar de externalizar la moderación de contenido y establecer una estación de los moderadores en la propia empresa.

  • Duplicar el número de moderadores para mejorar la calidad de la revisión de contenido.

  • Contratar a alguien para supervisar el contenido y la verificación de hechos que informaría directamente al CEO o COO.

  • Ampliar aún más la moderación en los países en riesgo de Asia, África y en otros lugares.

  • Ofrecer a todos los moderadores la atención médica de alta calidad in situ, incluido el acceso a psiquiatras.

  • Patrocinar la investigación sobre los riesgos para la salud de los moderadores de contenido, en especial sobre el TEPT (Trastorno por Estrés Postraumático).

  • Desarrollar una regulación gubernamental específicamente adaptada sobre el contenido dañino.

  • Ampliar de forma significativa la verificación de hechos para desmentir la desinformación.

Las propuestas son muy ambiciosas. Cuando se contactó Facebook para comentarlas, la empresa no quiso opinar sobre si se consideraría ponerlas en práctica. No obstante, un portavoz explicó que su modelo actual significaba "poder ajustar rápidamente el enfoque de la fuerza laboral según las necesidades", y añadió que "eso da la capacidad de garantizar la experiencia lingüística adecuada, y la posibilidad de contratar rápidamente en diferentes zonas horarias a medida que surgen nuevas necesidades o cuando la situación en todo el mundo lo exige".

Pero Barrett cree que un reciente experimento realizado en respuesta a la crisis del coronavirus (COVID-19) muestra que el cambio es posible. Dado que muchos de sus moderadores de contenido no podían acudir a las oficinas de la compañía, Facebook anunció que pasaría esa responsabilidad a los empleados internos para verificar ciertas categorías sensibles de contenido.

El investigador concluye: "Me parece muy revelador que, en un momento de crisis, Zuckerberg contara con personas de su confianza: sus empleados de tiempo completo. Quizás eso sirva de base para que haya una conversación dentro de Facebook sobre cómo adecuar la forma en la que se realiza la moderación de contenido".

Cadenas de bloques y aplicaciones

Qué significa estar constantemente contectados unos a otros y disponer de inmensas cantidades de información al instante.

  1. Google Maps muestra dónde están aumentando los casos de coronavirus

    Su nueva función, disponible en EE. UU. y Europa para IOs y Android, permite ver el número de casos de COVID-19 por cada 100.000 personas en un área determinada, con una señal que indica si la cifra tiene una tendencia ascendente o descendente para ayudar a la gente a decidir dónde es seguro ir

  2. El desafío de la privacidad y los datos va mucho más allá de TikTok y China

    Castigar aplicaciones individuales como WeChat no es más que un parche cortoplacista que no aborda la raíz del problema: una economía global de 'apps' que recopila y monetiza todos los datos que puede. La única forma de solucionarlo es con una legislación sólida y democrática más parecida al RGPD de la UE

  3. EE. UU. no ha prohibido TikTok ni WeChat, pero casi

    Aunque el Gobierno emitió una orden para ilegalizar e impedir la descarga de ambas aplicaciones de propiedad China, ambas siguen disponibles. El 20 % de TikTok será adquirido por Oracle y Walmart con la bendición de Trump, y la prohibición de WeChat ha sido paralizada por un juez de San Francisco