.

Ms. Tech | YouTube

Inteligencia Artificial

Google confirma que los algoritmos de recomendación nos encarcelan

1

Un equipo de su filial de IA, DeepMind, ha analizado distintas configuraciones de algoritmos para estudiar su influencia en las burbujas de filtros y en las cámaras de eco. Cuanto más personalizadas y precisas son sus recomendaciones para cada usuario, más rápido queda atrapado

  • por Karen Hao | traducido por Ana Milutinovic
  • 20 Marzo, 2019

Una de las aplicaciones actuales más comunes del aprendizaje automático está en los algoritmos de recomendación. Netflix y YouTube los usan para mantenernos enganchados a nuevos programas y vídeos; Google y Facebook, para clasificar el contenido que aparece en nuestros resultados de búsqueda y noticias. Pero aunque estos algoritmos son muy útiles, también tienen algunos efectos colaterales poco deseables. Probablemente haya oído hablar de ellos antes: las burbuja de filtros y las cámaras de eco.

La preocupación por ellos no es nueva. La actual CEO de Upworthy, Eli Pariser, ya advirtió sobre la burbuja de filtros en una charla TED que dio en 2011. Incluso antes de eso, en su libro Republic.com, el profesor de derecho de la Universidad de Harvard (EE. UU.) Cass Sunstein predijo con precisión un efecto de "polarización grupal", impulsado por el auge de internet, que al final desafiaría a la democracia (ver "La IA ya está afectando negativamente a nuestros ideales democráticos"). Facebook nació tres años más tarde.

Ambos fenómenos ganaron popularidad rápidamente tras las elecciones presidenciales de EE. UU. en 2016, lo que aumentó el número de investigaciones relevantes. Ahora la filial de Google dedicada a la inteligencia artificial (IA), DeepMind, ha decidido que también va a analizarlos (más vale tarde que nunca, ¿no?).

En un nuevo artículo, sus investigadores han analizado cómo los diferentes algoritmos de recomendación pueden acelerar o ralentizar ambos fenómenos, que los investigadores abordan por separado. Las cámaras de eco, según ellos, refuerzan los intereses de los usuarios a través de la exposición repetida a un contenido similar. La burbuja de filtros, en cambio, reduce el alcance del contenido al que están expuestos los usuarios. Ambos, en términos académicos, son ejemplos de "bucles de retroalimentación degenerada". Un nivel más alto de la degeneración, en este caso, se refiere a una burbuja de filtros más fuerte o al efecto de cámara de eco.

Realizaron simulaciones de cinco algoritmos de recomendación diferentes, con distintos grados de prioridad en la predicción precisa de lo que el usuario estaba interesado, promoviendo aleatoriamente nuevos contenidos. Los investigadores han descubierto que los algoritmos más centrados en la precisión provocaron una degeneración del sistema mucho más rápida. En otras palabras, la mejor manera de combatir la burbuja de filtros o las cámaras de eco es diseñando los algoritmos más exploratorios que muestren al usuario cosas que podrían no captar su interés. Aumentar el conjunto general de información de donde se extraen las recomendaciones también podría ser útil.

El profesor de ciencias informáticas en la Universidad de Minnesota (EE.UU.) Joseph A. Konstanque, quien ha realizado varias investigaciones sobre burbuja de filtros, destaca que los resultados de DeepMind no son sorprendentes. Afirma que los investigadores saben desde hace mucho tiempo que hay tensión entre la predicción precisa y la exploración efectiva de los sistemas de recomendación.

A pesar de que otros estudios previos muestran que los usuarios tolerarán niveles más bajos de precisión para beneficiarse de recomendaciones más diversas, los desarrolladores todavía carecen de incentivos para diseñar sus algoritmos de esa manera. "Siempre es más fácil 'acertar' al recomendar opciones seguras", explica Konstan.

Konstan también critica el estudio de DeepMind por considerar la burbuja de filtros y las cámaras de eco como simulaciones de aprendizaje automático en lugar de como sistemas interactivos que involucran a los humanos, una limitación que también han señalado los propios investigadores. El experto concluye: "Siempre me preocupa el trabajo que se limita a estudios de simulación (o análisis offline de datos). La gente es compleja. Por un lado, sabemos que valoran la diversidad, pero por otro, también sabemos que, si llevamos las recomendaciones demasiado lejos, los usuarios sentirán que no somos fidedignos y podríamos perderlos por completo".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana
  2. "La pregunta es cuánta participación humana se necesita para que algo sea arte"

    Alex Reben hace arte con (y sobre) IA. Hablé con él sobre lo que la nueva ola de modelos generativos significa para el futuro de la creatividad humana

    Detalle de un cuadro de una cabeza deformada en la que unas enormes orejas en la parte frontal de la cara tapan los ojos y una lengua brillante con textura de fresa sobresale de la boca abierta.
  3. Compensación y atribución para los creadores, la apuesta de Adobe por una IA generativa diferente

    La empresa afirma que es la prueba de que los modelos de IA de calidad no tienen por qué incluir polémicos contenidos protegidos por derechos de autor

    Imagen generada mediante IA de una mano que utiliza una cuchilla de precisión para cortar un dibujo de la realidad