.

Otros

La manipulación emocional es el último intento de Facebook de usar a sus usuarios

1

El estudio se llevó a cabo sin su consentimiento y va más allá de otros análisis previos como el del voto o la donación de órganos

  • por David Talbot | traducido por Francisco Reyes
  • 03 Julio, 2014

El controvertido estudio de Facebook para explorar si es posible manipular los estados de ánimo de las personas mediante la deformación de sus canales de noticias a favor de contenido negativo o positivo ha producido una respuesta emocional particularmente negativa, pero no es ni mucho menos el primer intento de la red social por controlar el comportamiento del usuario.

La compañía posee enormes cantidades de datos de más de mil millones de usuarios, y cuenta con una posición única para estudiar todos sus movimientos y realizar experimentos midiendo los cambios de comportamiento bajo distintas condiciones. Esto ayuda a Facebook a persuadir a sus usuarios a pasar más tiempo en el sitio. Pero en los últimos tres años también ha estado investigando otros aspectos que van desde votar hasta el efecto de animar a la gente a hacer donaciones de órganos.

La empresa cuenta con un equipo científico de datos dedicado a experimentos, tanto para avanzar en sus objetivos de negocio como para llevar a cabo investigación de ciencias sociales, a menudo con colaboradores en el mundo académico. Otros académicos realizan investigaciones en Facebook sin colaborar con la empresa, ya sea mediante la simple observación de los usuarios o la creación de aplicaciones que les pidan participar en un proyecto.

El estudio, realizado en enero de 2012 pero publicado recientemente, ha sido controvertido porque ha provocado un efecto negativo en algunos usuarios, pero también porque a los usuarios afectados no se les pidió permiso para participar (aceptar los términos y condiciones de Facebook se tomó como consentimiento).

"Lo diferente de este estudio es que los participantes no consintieron expresamente ser parte de una manipulación experimental para el estudio, y que los resultados fueron publicados", señala la científica informática en la Universidad Carnegie Mellon (EEUU) Lorrie Cranor, donde dirige el Laboratorio de Seguridad y Privacidad Utilizable CyLab.

Facebook publicó un experimento con 689.003 usuarios para ver si podía manipular sus emociones mediante la variación de la selección de los mensajes en sus canales de noticias. Un grupo veía historias filtradas con palabras positivas. Otro grupo experimental vio historias filtradas con palabras negativas. En su conjunto, las personas sometidas a estos cambios tendieron a escribir mensajes que reflejaban los estados de ánimo correspondientes, aunque el efecto fue pequeño.

Pero la suma de efectos pequeños puede ser grance. Estudios de Facebook anteriores han demostrado que una reestructuración relativamente pequeña de sus páginas y mensajes puede tener efectos sociales importantes. Tal vez el más espectacular sea un estudio de 2012 que mostró que el día de las elecciones en 2010, en el que la red social publicó recortadorios para ir a votar, la acción provocó que hubiera hasta 340.000 votantes más (ver "De cómo Facebook llevó a los votantes hasta las urnas").

Además, en 2012 Facebook mostró que podría tener el poder de hacer que la gente donara órganos. La compañía colocó una caja en las páginas de línea de tiempo sobre la que se podía hacer clic, para que la gente indicara si eran donantes registrados. La campaña se asoció con un gran aumento de la inscripción de donantes. (Sin embargo, en este caso la amplia cobertura mediática de la iniciativa complicó el poder analizar si realmente provocó el aumento directo de inscripciones).

En cierto modo, la investigación publicada por Facebook es sólo parte de un gran  esfuerzo continuo de manipulación basado en internet. "Lo que resulta mucho más preocupante es la falta de transparencia sobre las prácticas de Facebook en general", señala el profesor asistente en la Universidad de Carolina del Norte en Chapel Hill (EEUU), Zeynep Tufeki, y exmiembro del Centro de Política de Informática en la Universidad de Princeton (EEUU). "Me preocupan estas prácticas de pruebas y la manipulación de la experiencia del usuario que se da a diario. ¿Qué otras cosas hace Facebook todos los días? No tenemos ni idea".

La recogida y análisis de datos personales es un negocio de miles de millones de dólares (ver "Los datos me obligaron a hacerlo") diseñado para promover compras, captar la atención y dar forma a la conducta. "La publicidad y los medios de comunicación trabajan constantemente para manipular nuestras emociones, así que no parece que este estudio sea particularmente problemático", afirma Cranor. "Somos ratas de laboratorio sin ser conscientes de ello".

El verdadero problema, según Cranor y otros expertos, podría ser que cuando estén involucradas instituciones académicas (investigadores de la Universidad de Cornell y la Universidad de California en San Francisco, ambas en EEUU, participaron en el estudio de la emoción) las juntas institucionales de revisión académica deberían echar un vistazo más de cerca. Hoy día esto se hace principalmente cuando se cuenta con fondos federales.

La política federal para la protección de sujetos humanos en investigaciones financiadas por el Gobierno Federal de EEUU, conocida como la regla común, requiere que los sujetos den su "consentimiento sabiendo lo que hacen", y que se incluya una "descripción de los riesgos razonablemente previsibles o molestias para el sujeto" en una declaración de los procedimientos. La política de uso de datos de Facebook es mucho más vaga, y afirma que podría utilizar los datos en "operaciones internas, entre ellas la resolución de problemas, el análisis de datos, pruebas, de investigación y mejora de los servicios".

Esta falta de consentimiento resulta preocupante para el neurocientífico de la Universidad del Sur de California (eeuu) Antonio Damasio, que ha hecho varios hallazgos de importancia clave en la comprensión del modo en que el cerebro procesa la emoción subyacente. "Estoy de acuerdo en que la manipulación de las emociones es muy común, no sólo en internet sino en la vida diaria", afirma. "De eso se trata la publicidad en general y el marketing en particular, pero eso no autoriza a los investigadores a llevar a cabo experimentos sin el consentimiento adecuado. No se me ocurre ninguna excusa para este comportamiento y no hay manera de condonarlo".

Este lunes Facebook señaló que no tenía nada que añadir más allá de las disculpas que su investigador, Adam Kramer, publicó sobre el tema.

Otros

  1. La "voz avanzada" de OpenAI llega a más usuarios con el objetivo de ser un asistente natural

    La compañía dice que la versión actualizada responde a tus emociones y tono de voz y te permite interrumpirla a mitad de una oración.

  2. Crece la preocupación de los virólogos por la gripe aviar: "Tiene potencial pandémico"

    La pervivencia de la gripe aviar en vacas lecheras de las granjas de EE UU podría mantenerse para siempre, un factor que está aumenta el riesgo de brotes en mamíferos -incluidos los humanos- en todo el mundo.

    Aves de corral | Getty Images
  3. ¿En qué se parece nuestro genoma a un modelo de IA generativa?

    Al parecer, nuestro código genético funciona un poco como DALL-E, según un reciente artículo científico