.

Otros

¿Quién Está Interfiriendo con Wikipedia?

1

La ida y vuelta de los aportes controvertidos podría ayudar a revelar su verdadero valor.

  • por Erica Naone | traducido por Rubén Oscar Diéguez
  • 06 Febrero, 2009

A pesar de las advertencias de profesores de secundarias y universidades, Wikipedia es una de las páginas más visitadas del mundo (y sin mencionar que es la enciclopedia más grande jamás creada). Pero del mismo modo que creció la popularidad de Wikipedia, también creció el debate respecto a su exactitud. Uno de los asuntos más serios es el hecho que sus artículos son escritos y editados por un ejército oculto de personas con intereses y prejuicios desconocidos.

Ed Chi, un científico de investigación senior de cognición de aprendizaje social aumentada en el Centro de Investigación de Palo Alto (PARC), y sus colegas, ahora crearon una herramienta llamada WikiDashboard, cuya meta es revelar gran parte de las idas y vueltas ocultas detrás de las páginas más controvertidas de Wikipedia a fin de ayudarles a los lectores a juzgar hasta qué punto el contenido puede ser sospechoso.

Wikipedia ya tiene procedimientos para alertar a los usuarios respecto de problemas potenciales que puede haber con un artículo. Por ejemplo, uno de los editores voluntarios de Wikipedia puede revisar un artículo y marcarlo como “controvertido” o avisar que “necesita fuentes”. Pero Chi dice que en la práctica, relativamente pocos artículos reciben realmente estos marcadores.   En vez de eso, WikiDashboard ofrece una imagen instantánea de las ediciones y reediciones, como así también los argumentos a favor y en contra que se necesitaron para crear cada una de las millones de páginas de Wikipedia.

Los investigadores empezaron analizando páginas que ya estaban marcadas como “controvertidas” en Wikipedia: hallaron que era probable que estas páginas hubieran sido editadas y re-editadas repetidamente. Basándose en esta observación, desarrollaron WikiDashboard, una página que presenta los aportes a Wikipedia pero que agrega una tabla en la parte superior de cada página para revelar su historia de edición reciente.

WikiDashboard muestra cuales usuarios aportaron más a la página, de qué porcentaje de los aportes es responsable cada persona, y cuándo estuvieron más activos los editores. Un usuario de WikiDashboard puede explorar más al clickear en el nombre de un editor en particular, por ejemplo, para ver hasta qué punto quien editó estuvo involucrado con otros artículos. Chi dice que la meta es mostrar la interacción que suscita un aporte. Por ejemplo, la tabla debe aclarar cuándo un usuario individual dominó en una página, o cuándo un frenesí de actividad explotó en torno de un artículo particularmente discutible. La línea cronológica de la tabla también puede mostrar durante cuánto tiempo la página estuvo abandonada.

La página de Hillary Clinton, por ejemplo, muestra que quien más contribuyó es quien realizó el 20 por ciento de los aportes. Chi dice que esto sugiere que este individuo guió gran parte de la tendencia del artículo. A diferencia de esto, una página sobre curtirse al viento tiene un panorama mucho menos acalorado: existe una colaboración mucho más equitativa entre los contribuyentes.

Los investigadores lanzaron una beta de la herramienta en 2007 utilizando datos que algunas veces al año ponía Wikipedia en circulación. Pero Chi dice que esa versión de WikiDashboard era limitada, ya que no mostraba la velocidad de los cambios online. Su equipo pasó gran parte de 2008 consiguiendo acceso a datos en vivo, que Chi dice que es difícil debido a los recursos limitados de Wikipedia.

Daniel Tunkelang, el científico jefe de Endeca, una empresa de análisis de información ubicada en Cambridge, MA, dice que la herramienta es un paso adelante hacia la exploración del contexto social de los aportes de Wikipedia, pero agrega que, “Hay lugar para comprimir esto para que sea un artículo de consumo”. Con esto, Tunkelang quiere decir que el software podría ser más útil para el usuario casual si resumiera los datos más efectivamente. Él dice, por ejemplo, que la lista de artículos sobre los cuales trabajó cada editor podría exhibir una cantidad de marcadores de lectura fácil.

En una charla que dio Chi esta semana, Rob Millar, un profesor adjunto del Computer Science and Artificial Intelligence Lab del MIT, hizo notar que algunos de los editores de Wikipedia trataba de juntar una gran cantidad de aportes a fin de obtener más prestigio. Él se preguntó cómo podría afectar esa tendencia a las mediciones del WikiDashboard si la herramienta se hiciera popular.

El grupo de Chi todavía está trabajando con el WikiDashboard, y en forma más generalizada en los datos de Wikipedia. Dice que le gustaría ver un sistema que no midiera simplemente las estadísticas de la cantidad de aportes hechos, sino también la calidad de dichos aportes.

Otros

  1. Argentina rastrea a niños 'sospechosos' con reconocimiento facial

    El sistema para identificar a presuntos delincuentes en tiempo real, que se implantó sin ningún tipo de consulta pública, funciona con una base de datos que puede encontrarse fácilmente en internet y que incluye información privada de hasta 166 menores, algunos de ellos de entre uno y tres años de edad

  2. El peligro de que solo Microsoft pueda acceder a GPT-3

    Aunque OpenAI se fundó sin ánimo de lucro y bajo la premisa de desarrollar IA enfocada al bien de la humanidad, ha concedido acceso exclusivo a su herramienta de generación de lenguaje. La medida no hace más que concentrar el poder de la inteligencia artificial en manos de los gigantes tecnológicos

  3. ¿Qué se esconde tras el hackeo masivo a cuentas famosas de Twitter?

    A simple vista, el ataque parecía una simple estafa de Bitcoin. Pero la brecha de seguridad, provocada mediante engaños a los empleados de la red social, permitió a los ciberdelincuentes acceder a mensajes privados de personajes de gran relevancia como Joe Biden, Barack Obama, Elon Musk y Bill Gates