.

Móvil

Cómo arreglar la burbuja de filtros que nos encierra en una 'cárcel de opinión'

1

La tendencia a consumir información que coincide con aquello en lo que ya creemos existía antes de Twitter y Facebook. Así que aunque internet no sea 100 % responsable de que la polarización de la sociedad sea cada vez mayor, podría convertirse en una herramienta para solucionar el problema

  • por Adam Piore | traducido por Ana Milutinovic
  • 30 Agosto, 2018

El pasado otoño uno de los principales expertos en redes sociales de EE. UU. Deb Roy, asistió a una serie de mesas redondas organizadas en pequeñas poblaciones del centro de EE.UU. Como director del Laboratorio de Máquinas Sociales en el Media Lab del Instituto Tecnológico de Massachusetts (MIT, EE. UU.), Roy no estaba acostumbrado a lo que se encontró en aquellas sesiones. No había pantallas de ordenador en las salas, ni tuits ni publicaciones para analizar. En lugar de eso, se limitó a presenciar cómo los líderes de la comunidad y los residentes locales hablaban cara a cara sobre sus vecinos.

Lo que escuchó le alarmó enormemente. Recuerda a una mujer mayor que explicaba: "Me enteré de lo que ponían en Facebook. Sus puntos de vista son tan extremos y tan inaceptables para mí que ya no encuentro ningún sentido en relacionarme con ellos". A lo largo de las sesiones, Roy escuchó opiniones parecidas sin parar.

El investigador explica: "Se trata de personas que se ven con regularidad en sus pequeñas ciudades. Antes solían aceptar sus discrepancias. Pero algo debe estar funcionado muy mal si la división y la balcanización aparecen a un nivel tan local, donde aunque tengamos acceso el uno al otro, el reino digital silencia nuestro discurso y nos aísla físicamente".

En 2014, Roy puso en marcha su laboratorio en el MIT para estudiar, entre otras cosas, cómo las redes sociales podrían usarse para romper con las discusiones partidistas que normalmente dividen a la gente. Y tiene una posición exclusiva para intentarlo. De 2013 a 2017, este ingeniero nacido en Canadá ejercía como "científico principal de medios" en Twitter. Su misión consistía en recopilar y analizar las conversaciones de la red social. Cuando inauguró su laboratorio, Twitter no solo le otorgó acceso total a su "firehose" (el conjunto de todos los tweets producidos en tiempo real) sino que le concedió más de 8.500 millones de euros para ayudarle a organizar toda esta información sobre los intereses, preferencias y actividades, y encontrar las formas de usarla en beneficio público.

Para Roy y otros investigadores que estudian el impacto de internet en la sociedad, el problema más preocupante que apareció en las elecciones presidenciales de EE. UU. en 2016 no es que los rusos usaran Twitter y Facebook para difundir propaganda, o que la consultora política Cambridge Analytica accediera ilegalmente a la información privada de más de 50 millones de usuarios de Facebook. El problema es que todos nosotros, de manera bastante voluntaria, nos hemos movido hacia rincones virtuales muy partidistas, debido en gran parte a las redes sociales y a las empresas de internet que determinan lo que vemos mediante el control de lo que ya hemos visto en el pasado para darnos más de lo mismo. En ese proceso, las opiniones opuestas se filtran y dejando a la vista un contenido que refuerza lo que ya creemos (ver Necesitamos alternativas a Facebook, la gran 'caja tonta' de internet).

Se trata de la ya famosa "burbuja de filtros", un concepto popularizado en el libro del mismo nombre de 2011 escrito por Eli Pariser, un activista de internet y fundador del sitio de contenido viral Upworthy. En su libro, el autor afirmaba: "La democracia solo funciona si los ciudadanos somos capaces de pensar más allá de nuestro propio interés. Pero para hacerlo, necesitamos una visión compartida del mundo en el que convivimos. La burbuja de filtros nos empuja en la dirección opuesta: crea la impresión de que nuestro propio interés es todo lo que existe".

¿Es esto lo que está pasando realmente? Al analizar la cuestión en profundidad, resulta que las cosas no son tan simples.

Algún tipo de guerra

Allá por el año 2007, el experto jurista Cass Sunstein alertó de que internet daba lugar a una "era de enclaves y nichos". Citó un experimento de 2005 en el que 60 estadounidenses de la conservadora Colorado Springs y la liberal Boulder (dos ciudades separadas por unos 160 kilómetros) se reunieron en pequeños grupos para debatir sobre tres temas controvertidos (discriminación positiva, matrimonio homosexual y tratado internacional sobre el calentamiento global). En casi todos los casos, los voluntarios demostraron posturas más extremas después de hablar con otros de ideas similares.

"Internet hace extremadamente fácil replicar el experimento de Colorado online", escribió Sunstein en la Crónica de la Educación Superior. "Existe un riesgo general de que aquellos que se congregan, ya sea en internet o en cualquier otro lugar, terminen confiados y equivocados, simplemente porque no han sido suficientemente expuestos a contraargumentos. Incluso pueden considerar a sus conciudadanos como opositores o adversarios en algún tipo de 'guerra'".

Pero, ¿acaso son las redes sociales las culpables eso? En un estudio publicado a principios de este año en PNAS, investigadores de la Universidad de Stanford (EE. UU.) analizaron la polarización política en EE. UU. Y descubrieron que estaba aumentando mucho más rápido entre los grupos demográficos con menos posibilidades de usar las redes sociales e internet. "La gente de 65 años se polarizan más rápido que un grupo de menor edad, algo contrario de lo que cabría esperar si las redes sociales e internet fueran la causa", afirma el autor principal del estudio, Levi Boxell.

Además, la mayoría de las personas no están tan atrapadas en cámaras de eco como algunos nos quieren hacer creer, tal y como afirma el investigador del Instituto de Internet de Oxford (Reino Unido) Grant Blank y sus colaboradores, que sondearon a adultos en Reino Unido y Canadá.

Blank detalla: "Tenemos cinco maneras diferentes de definir una cámara de eco, y realmente no importa cuál usemos, porque los resultados son muy consistentes en todas ellas: la cámara de eco no existe. En realidad, la  gente lee muchos medios. Consumen, de media, cinco fuentes de medios diferentes, tres offline y dos online, y encuentran diversas opiniones, también con las que no están de acuerdo, y cambian su postura en función de lo que descubren en los medios".

Incluso Pariser, que bautizó a la burbuja de filtros, coincide en que internet no tiene toda la culpa. Cierto es que su efecto podría explicar por qué las élites liberales no vieron venir a Trump, ya que una gran parte del centro del país estaba ausente en los medios sociales de los liberales: de hecho, el trabajo de Blank concluyó que la mayoría de los investigadores que encontraron tal efecto analizaban solo a estas élites culturales. Pero para la mayoría de los seguidores de Trump, la radio, las noticias locales y la cadena Fox, una burbuja de filtros previa a internet, fueron fuentes mucho más importantes que los tuits o las noticias falsas en Facebook.

Los datos de la organización de investigación Pew respaldan la idea de que la polarización no proviene solo de internet. Después de las elecciones de 2016, la entidad descubrió que el 62% de los estadounidenses accedía a noticias desde las redes sociales, pero en un paréntesis ignorado en la mayoría de los artículos sobre el estudio, solo el 18 % manifestó que lo hacía "a menudo". Un estudio más reciente de Pew demuestra que solo alrededor del 5 % indicó que tenía "mucha" confianza en la información.

"Internet no es en absoluto el factor causante", sostiene el director del Centro de Medios Civiles del MIT, Ethan Zuckerman, aunque matiza: "Creo que estamos experimentando un fenómeno que comenzó con Fox News y que ahora se está expandiendo por las sociales" (ver "Dar el control de nuestra vida digital a un par de empresas es un error").

De acuerdo. Entonces, ¿qué podemos hacer al respecto, si es que podemos hacer algo?

Tres formas de arreglarlo

Después de las elecciones de 2016, Zuckerman y algunos de sus colaboradores diseñaron una herramienta llamada Gobo que permite a la gente ajustar sus propias burbujas de filtro a través de unos controles para los filtros de contenido (ver Seis estrategias para evitar que Facebook y Twitter le manipulen). Por ejemplo, el control de "política" abarca desde "mi perspectiva" hasta "muchas perspectivas". Si se elige el último extremo, el usuario recibirá información des medios de comunicación que probablemente no vería normalmente.

Facebook, sin embargo, mostró poco interés en adoptar Gobo. Zuckerman afirma: "Lo que le preocupa a Facebook, y probablemente tengan razón, es que muy pocas personas realmente quieren diversificar sus fuentes".

Los miembros del laboratorio de Deb Roy desarrollaron otra herramienta, Social Mirror. A principios de este año, informaron sobre los resultados de un experimento realizado con esta herramienta, que utiliza la visualización de datos para ofrecer a los usuarios de Twitter una vista panorámica de cómo su red de seguidores y amigos encaja en el universo general de Twitter. La mayoría de los reclutados para utilizar la herramienta eran usuarios de Twitter políticamente activos, y muchos se sorprendieron al descubrir cómo estaban envueltos dentro de las burbujas de la extrema derecha o de la extrema izquierda.

Pero el impacto del experimento resultó efímero. Aunque una semana después de terminarlo, algunos participantes seguían un conjunto más diverso de cuentas de Twitter que antes, dos o tres semanas después la mayoría volvió a la homogeneidad. Y en otra vuelta de tuerca, las personas que siguieron cuentas más contrarias, sugeridas por los investigadores para ayudarles a diversificar sus fuentes de Twitter, acabaron informando de que estarían aún menos dispuestos a hablar con personas de opiniones políticas opuestas.

Estos desastrosos resultados han llevado a Zuckerman a una idea más radical para contrarrestar las burbujas de filtros: la creación de una plataforma de redes sociales financiada por los contribuyentes con una misión cívica de proporcionar una "visión diversa y global del mundo".

En una columna para The Atlantic, el investigador señaló que en Estados Unidos al principio apareció la prensa altamente partidaria adaptada al público muy específico. Pero la mayoría de editores y redactores acataron una fuerte norma cultural, reeditando una amplia gama de historias de diferentes partes de la nación y reflejando distintas tendencias políticas. Las emisoras públicas en muchas democracias también se han centrado en proporcionar una gran variedad de opiniones. No es realista esperar lo mismo de Facebook: su modelo de negocio implica satisfacer nuestro deseo natural de congregarnos con otros como nosotros, argumenta Zuckerman.

Una plataforma pública de redes sociales con una misión cívica podría volcar opiniones desconocidas en nuestros canales y sacarnos de nuestra zona de confort, explica Zuckerman. Los académicos podrían revisar los algoritmos para asegurarse de que nos muestran una representación imparcial de puntos de vista. Y sí, admite, la gente se quejaría de haber financiado públicamente una plataforma así y cuestionaría su imparcialidad. Pero dada la falta de otras soluciones viables, vale la pena intentarlo, añade.

La responsabilidad es nuestra

Un sociólogo de la Universidad de Nueva York (EE. UU.) Jay Van Bavel ha estudiado las publicaciones en redes sociales y ha analizado cuáles son las más probables de crear tensión. Descubrió que las publicaciones de "identificación de grupo" activan las partes más primitivas. emocionales y no racionales del cerebro. Entonces, por ejemplo, si un político de derechas le dice a la gente que los inmigrantes están llegando y cambiando la cultura u ocupando empleos locales, o si un demócrata les dice a las estudiantes que los activistas cristianos quieren prohibir los derechos de las mujeres, sus palabras tienen poder. La investigación de Bavel sugiere que, si queremos superar las divisiones partidistas, debemos evitar la razón y centrarnos en las emociones.

Después del experimento de Social Mirror, los miembros del laboratorio de Roy presentaron un proyecto llamado FlipFeed, que mostró a usuarios en Twitter a otras personas con diferentes opiniones políticas. El autor principal del estudio, Martin Saveski, cuenta que el objetivo era cambiar lo que siente la gente hacia las personas del bando contrario. Uno de los experimentos pedía a los participantes que, cada vez que se encontraran con una opinión contraria, imaginaran que este punto de vista procedía de un amigo. Al final los participantes de este grupo parecían más propensos a expresar que les gustaría hablar con esa persona en el futuro, y que entendían por qué tenía una opinión contraria.

Los resultados fueron congruentes con otra observación hecha por Pariser. Ha notado que algunas de las mejores discusiones políticas online ocurren en foros deportivos, donde las personas ya están unidas por el amor común hacia un equipo. La suposición es que todos son primero seguidores del equipo y en segundo lugar de derechas o de izquierdas. Existe una conexión emocional antes de que la política incluso entre en la discusión.

Si nos fijamos en los diversos proyectos de Zuckerman, Roy y otros, lo que realmente están tratando de hacer es emplear la tecnología para que nos involucremos con el contenido ajeno a nuestras burbujas políticas. Pero, ¿es eso viable? Como Roy mismo afirma: "No creo que haya soluciones simples y tecnológicas".

Tal vez al final nos corresponde a nosotros mismos decidir si queremos descubrir el contenido de una gran variedad de fuentes, y luego vincularnos. ¿Suena desagradable? Pues, considere la alternativa: su última publicación política de indignación no logró mucho, porque la investigación muestra que todos los que la leyeron ya estaban de acuerdo.

*Adam Piore es el autor de 'The Body Builders: Inside the Science of the Engineered Human', publicado en 2017.

Móvil

Qué significa estar constantemente contectados unos a otros y disponer de inmensas cantidades de información al instante.

  1. Presenciar un evento en RV: peor que en persona, mejor que por la tele

    Decidí aceptar la propuesta de Facebook de asistir a su congreso anual desde su plataforma de realidad virtual. Lo bueno: me ahorré cuatro horas de coche y me sentía muy cerca de los ponentes. Lo malo: me mareé bastante y no pude probar el nuevo casco Quest que se presentó en el auditorio

  2. Si está harto de Facebook, deje de quejarse y cree su propia red social

    El 62 % de los sujetos estudiados no sabía que un algoritmo determinaba lo que aparecía en su muro de noticias. Los expertos coinciden en que las redes sociales y los motores de búsqueda necesitan mejorar, aunque una opción menos agresiva sería que tuvieran configuraciones más sencillas

  3. Así le manipulan las noticias falsas según su nivel de alerta

    El poder de engaño de los bulos divide a la sociedad en tres grupos: los que no saben que existen las noticias falsas, los que son sí lo saben pero son incapaces de identificarlas y los que las detectan al instante. El simple hecho de saber que existen reduce su capacidad de manipulación