.

Cadenas de bloques y aplicaciones

Twitter quiere luchar contra el ciberacoso pero no sabe cómo

1

El acoso en línea se ha convertido en un importante problema, si la red social quiere vencerlos puede mermar su flujo de información

  • por Rachel Metz | traducido por Lía Moya
  • 16 Febrero, 2015

Twitter admite que tiene un problema. En un memorándum interno filtrado hace un par de semanas, el director ejecutivo de la empresa, Dick Costolo, reconocía lo que ya sabían muchos tuiteros: a base de 140 caracteres, muchos de los usuarios del servicio se ven acosados, insultados o amenazados rutinariamente y la empresa no hace gran cosa por impedirlo.

La nota de Costolo sugiere que Twitter podría tomar nuevas medidas contra los acosadores, un paso potencialmente importante en un momento en el que los abusos en línea han alcanzado proporciones preocupantes. Lo que haga Twitter podría servir como plantilla para abordar el problema mayor de los abusos en línea, pero también podría poner en evidencia el desafío de acabar con el comportamiento inaceptable sin erosionar el carácter de una comunidad intrínsecamente rebelde y combativa. Las reglas que controlen el acoso podrían tener la consecuencia no pretendida de ralentizar el flujo de información y de desanimar a algunos usuarios apasionados.

El abuso en línea, especialmente en las redes sociales, ya es una cuestión que preocupa al público en general. Según una encuesta del Centro de Investigaciones Pew realizada a finales del año pasado, el 40% de las personas ha sufrido abusos en la web, y la mayoría de ellos (el 66%), afirma que la última vez que les pasó fue en una red social. Incluso aunque no lo hayas sufrido tú mismo, es muy probable que lo hayas visto: el mismo informe de Pew halló que el 73% de los encuestados informó de haber presenciado abuso hacia otros en línea. Entre las personas de 18 a 29 años, esta cifra salta al 92%.

El tema llegó a la primera plana el año pasado vía Gamergate, por una campaña de acoso en línea que creció en forma de bola de nieve, derivada de las alegaciones de que una desarrolladora de videojuegos se acostó con un periodista a cambio de una crítica positiva de su juego. Más recientemente, el problema ha sido puesto de relieve en la pieza de enero de la escritora Lindy West para el programa de radio This American Life en la que relata el abuso que sufrió en Twitter y cómo se enfrentó a un troll en concreto. De hecho, el memorándum de Costolo era una respuesta a una entrada publicada por un empleado sobre esa pieza en la red interna de Twitter.

El profesor adjunto de la Universidad de Nueva York (EEUU) Clay Shirky, que ha escrito dos libros sobre los medios sociales, cree que el problema ha llegado a un punto en el que Twitter tendría que recordar a los usuarios qué es válido y qué no, y plantear algunas consecuencias para quienes no lo cumplan. Aunque mantener y hacer cumplir este tipo de reglas exigiría mucha mano de obra y por o tanto resultaría caro, explica, la comunidad de Twitter se beneficiaría de ello.

"Hay una amenaza mayor si no se aborda este problema que si se aborda, simplemente porque la simpatía pública estará más con los acosados que los acosadores", afirma Shirky.

Pero aunque sí parece que es el momento de que Twitter actúe, no está nada claro cuál es la mejor forma de desincentivar este tipo de comportamientos. Twitter cuenta con métodos para tratar el acoso, como la posibilidad de bloquear a un usuario que te molesta e informar sobre él. Pero aunque pueda ser útil si te enfrentas a uno o incluso unos pocos tuiteros molestos, no sirve para detener un diluvio de entradas groseras, y un acosador insistente siempre puede abrirse un nuevo perfil y empezar de nuevo.

Quizá una pregunta más difícil de resolver es cómo hacer de Twitter un lugar más seguro sin desanimar a algunos de los usuarios existentes. El libre intercambio de puntos de vista y opiniones característico de Twitter forma parte de su atractivo; si impusiera controles estrictos sobre quién puede hablar con quién o, como Facebook, exigiera a la gente que revelara su identidad real, podría secar el flujo de información.

Podrían haber mejoras si Twitter lograra una cuidadosa combinación de una mayor comunicación con los usuarios y de tecnología para identificar automáticamente a los acosadores.

Twitter podría descargar parte del trabajo de sus propios empleados implicando más directamente a sus usuarios. El profesor de justicia criminal de la Universidad Wisconsin-Eau Claire (EEUU), Justin Patchin, y codirector del Centro de Investigación en Ciberacosor de la Universidad, afirma que Twitter podría pedirle a su comunidad que se autorregulara, quizá permitiendo a los usuarios votar voluntariamente sobre si un contenido es abusivo o no.

La profesora visitante del  Centro de Instituto de Tecnología de Massachusetts (EEUU) para Medios Cívicos, Kate Crawford, e investigadora principal el Microsoft Research, sugiere que la gente que sufre acoso podría compartir las listas de los usuarios a los que han bloqueado con quienes estén sufriendo el mismo problema. "No existe un arreglo técnico rápido para un problema social", afirma Crawford. "Lo que sí puede haber es una mejor comprensión de cuál es el problema".

Twitter no detecta y elimina contenidos ofensivos de forma preventiva, pero el profesor adjunto de computación de la Universidad de Wisconsin-Madison (EEUU), Jerry Zhu, que ha estudiado el uso de aprendizaje automático para detectar tuits abusivos en Twitter, afirma que la inteligencia artificial podría ayudar a detectar y censurar tuits abusivos mediante la búsqueda de palabras y frases clave. Sin embargo le costaría si el acoso no fuera explícito; a veces la gente es mala sin usar un lenguaje evidentemente agresivo. "Este es el punto en el que la técnica actual llega a su límite en el caso de la IA, en el sentido de que los ordenadores no son aún tan sutiles y no pueden medir el sentido de lo que se dice con precisión", afirma.

A pesar de que haciendo cambios corre el riesgo de molestar a algunos usuarios, quizá sea un precio que Twitter esté dispuesto a pagar a corto plazo para crear un servicio más acogedor a largo plazo. El profesor de psicología de la Universidad de Clemson (EEUU) Robin Kowalski  estudia el ciberacoso y afirma que "aunque pierdan algunos usuarios, ganarán unos cuantos más".

Cadenas de bloques y aplicaciones

Qué significa estar constantemente contectados unos a otros y disponer de inmensas cantidades de información al instante.

  1. Ciberguerra, 'ransomware' y robo de criptodivisas: la claves en ciberseguridad para 2023

    "Cuando se trata de eliminar el 'ransomware' desde la fuente, creo que dimos un paso atrás", asegura un experto

  2. Descentralización contra regulación: el debate de las criptomonedas en 2023

    Este año habrá una lucha por el alma de las finanzas descentralizadas

  3. Ethereum abandona la criptominería y adopta la prueba de participación

    Nadie sabe exactamente qué le depara a la industria de las criptomonedas tras esta esperada actualización