.

Book Catalog | Flickr

Cadenas de bloques y aplicaciones

Sus próximos dispositivos le harán más vulnerable a las noticias falsas

1

Las técnicas de manipulación no han hecho más que empezar. A medida que sigamos ganando conectividad, habrá más datos sobre nosotros. Y los avances en tecnologías como la IA lograrán que crear contenidos falsos increíblemente realistas sea cada vez más fácil

  • por Justin Hendrix | traducido por Mariana Díaz
  • 04 Abril, 2018

La escala y el alcance del escándalo de la violación de los datos personales de los usuarios de Facebook sigue creciendo. Y todavía hay muchas preguntas por contestar (ver "La paradoja de la transparencia es el núcleo de la crisis de Facebook"). ¿Por qué Facebook tardó tanto en actuar? ¿Tiene alguna responsabilidad sobre lo que ha pasado? ¿Qué consecuencias tendrá para los ejecutivos de Cambridge Analytica en las múltiples jurisdicciones?. La Comisión Federal de Comercio estadounidense (FTC, por sus siglas en inglés) ha abierto una investigación oficial sobre Facebook. Y por su parte Palantir, la compañía de datos de Peter Thiel (y partidario del multimillonario Trump)  ha estado implicada en el escándalo, igual que el nuevo asesor de seguridad nacional de Trump, John Bolton.

Pero lo más importante del asunto son las consecuencias que tendrá en el futuro.

A pesar de que no está claro si los perfiles de comportamiento y la microsegmentación de Cambridge Analytica tuvieron algún efecto medible en las elecciones presidenciales de 2016 en Estados Unidos, estas tecnologías avanzan rápidamente. De hecho, evolucionan a tal velocidad que a los académicos no les da tiempo a estudiar sus efectos ni a los responsables políticos a promulgar leyes adecuadas.

Pero la investigación de la FTC es una señal de hacia dónde van las cosas. En un evento celebrado en 2015 por el Laboratorio de Medios de Comunicación de la ciudad de Nueva York (EE. UU.), el profesor de Sistemas de Información de la Escuela de Negocios Stern de la Universidad de Nueva York Alexander Tuzhilin señaló que la mayoría de las aplicaciones de segmentación que hay actualmente son la segunda generación de estas tecnologías. La información incluye conocimiento del contexto, datos espaciotemporales y móviles, clasificaciones multicriterio, datos de redes sociales, recomendaciones conversacionales y mucho más. Estas son las herramientas estándar que utilizan los comercios y los anunciantes por internet, pero también eran las que usaba Cambridge Analytica en 2016.

Pero la tercera generación de segmentación ya está sobre nosotros (ver Tecnología para ganar las elecciones). En los próximos años, expertos como Tuzhilin predicen que veremos cómo múltiples disciplinas convergen, incluidas la minería de datos, la inteligencia artificial, la psicología, el marketing, la economía y la experiencia de usuario. Estos métodos se combinarán gracias al aumento exponencial en el número de sensores de internet de las cosas que introducimos en nuestros hogares y comunidades, desde asistentes de voz hasta aparatos que registran los avances de las personas a lo largo del día. Nuestros dispositivos mejorarán sus capacidades de detectar expresiones faciales, entender el lenguaje y analizar las señales fisiológicas.

En otras palabras, mañana las máquinas nos conocerán mejor de lo que nos conocen hoy; porque tendrán un montón de datos. En Europa, hay un reglamento general de protección de datos a punto de entrar en vigor, pero Estados Unidos va en la dirección opuesta. Aunque Facebook haya restringido el acceso a sus datos, ahora hay más información sobre ciudadanos en el mercado que nunca. Hace poco, la FTC permitió a los proveedores de servicios de Internet vender datos sobre el comportamiento de navegación en la web de los usuarios. Este es solo un ejemplo del tipo de información que empieza a estar disponible de forma legal, sin mencionar todos los datos que circulan gracias a los piratas informáticos y los usos fraudulentos.

En el peor de los casos, las tecnologías de segmentación avanzada alimentadas por todos estos datos se combinarán con nuevos métodos para generar automáticamente contenido realista, no solo texto sino también imágenes, vídeo y audio. Así lo advirtió la semana pasada el Supervisor Europeo de Protección de Datos en un informe sobre la manipulación política online. En su testimonio ante el Parlamento británico, el ahora suspendido director general de Cambridge Analytica, Alexander Nix, dijo que la compañía había generado miles de piezas de contenido creativo para la campaña de Trump para sus diversos objetivos. La mayor parte del trabajo se hizo probablemente a mano, ya que la compañía incluyó servicios creativos. Imagínese millones, sino miles de millones de mensajes adaptados con precisión, incluidos vídeos falsos, en futuras campañas, todo generado por máquinas. Y lo pero de todo es que estas herramientas ya están disponibles (ver Las noticias falsas 2.0 serán mucho más creíbles e imparablesLa tecnología para manipular contenidos amenaza con devolvernos a las noticias del siglo XX)

Es cierto que el jurado todavía está deliberando sobre si estas tecnologías tendrán una influencia real sobre las personas, como a Nix le gustaba afirmar en su discurso de venta. Los servicios de Cambridge Analytica ciertamente fueron publicitados, pero no sabremos su impacto a menos que haya una revelación completa en los tribunales británicos. En un artículo publicado en el Utrecht Law Review en febrero, Micro focalización política online: promesas y amenazas para la democracia, los investigadores concluyeron que necesitamos una gran cantidad de datos y transparencia para comprender el efecto de estas tecnologías. En particular, se necesitan regulaciones para que los gobiernos y los ciudadanos conozcan qué sucede dentro de las "cajas negras" de compañías como Facebook, YouTube, Snap y Twitter.

En las nuevas industrias, desde la energía hasta los automóviles y la producción de alimentos, hace falta tiempo para que la sociedad reconozca los efectos nocivos y establezca controles para preservar las cosas que importan. Lo mismo pasa en el ecosistema de información y la esfera pública. El futuro de nuestra democracia requiere que imaginemos estas tecnologías como amenazas potenciales y reconozcamos que la innovación sin restricciones en las redes sociales ha tenido su apogeo. Si el escándalo actual de datos de Facebook demuestra un punto de inflexión, aún es posible que el futuro sea mejor de lo que parece.

*Justin Hendrix es el director ejecutivo del Laboratorio de Medios de Comunicación de la ciudad de Nueva York. Comenzó la página web, RegulateSocialMedia.org, para fomentar el debate sobre las regulaciones apropiadas para las plataformas de medios sociales.
*David Carroll es profesor en la Escuela de Diseño Parsons de la Nueva Escuela en Nueva York. Presentó una reclamación contra Cambridge Analytica y afiliados de SCL para obligar a Cambridge Analytica a revelar cómo surgió el perfil de orientación psicográfica que la empresa tiene sobre él.

Cadenas de bloques y aplicaciones

Qué significa estar constantemente contectados unos a otros y disponer de inmensas cantidades de información al instante.

  1. Automod: el único e imperfecto sistema para moderar internet

    Los moderadores de contenido automáticos como el de Reddit parecen ser la única opción para abordar el odio. Aunque ahorran tiempo y previenen posibles problemas de salud mental de los trabajadores, los humanos todavía tienen que supervisar su trabajo

  2. Los trabajadores de Google acusan a la empresa de espiarlos

    Algunos empleados del gigante tecnológico aseguran que la compañía ha creado una herramienta interna que alerta sobre las convocatorias de reuniones con muchos participantes para saber si piensan asociarse. Aunque Google dice que su objetivo es evitar el envío de 'spam', el conflicto demuestra la desconfianza del equipo

  3. Google combatirá la adicción al móvil con un teléfono de papel

    El gigante tecnológico ha anunciado Paper Phone, un 'dispositivo' similar a una agenda para afrontar las críticas sobre cómo la compañía contribuye la dependencia tecnológica. Sin embargo, los expertos en desconexión digital no consideran que el experimento sirva para mucho: la clave está en el equilibrio