.

Ms. Tech | YouTube

Inteligencia Artificial

Google confirma que los algoritmos de recomendación nos encarcelan

1

Un equipo de su filial de IA, DeepMind, ha analizado distintas configuraciones de algoritmos para estudiar su influencia en las burbujas de filtros y en las cámaras de eco. Cuanto más personalizadas y precisas son sus recomendaciones para cada usuario, más rápido queda atrapado

  • por Karen Hao | traducido por Ana Milutinovic
  • 20 Marzo, 2019

Una de las aplicaciones actuales más comunes del aprendizaje automático está en los algoritmos de recomendación. Netflix y YouTube los usan para mantenernos enganchados a nuevos programas y vídeos; Google y Facebook, para clasificar el contenido que aparece en nuestros resultados de búsqueda y noticias. Pero aunque estos algoritmos son muy útiles, también tienen algunos efectos colaterales poco deseables. Probablemente haya oído hablar de ellos antes: las burbuja de filtros y las cámaras de eco.

La preocupación por ellos no es nueva. La actual CEO de Upworthy, Eli Pariser, ya advirtió sobre la burbuja de filtros en una charla TED que dio en 2011. Incluso antes de eso, en su libro Republic.com, el profesor de derecho de la Universidad de Harvard (EE. UU.) Cass Sunstein predijo con precisión un efecto de "polarización grupal", impulsado por el auge de internet, que al final desafiaría a la democracia (ver "La IA ya está afectando negativamente a nuestros ideales democráticos"). Facebook nació tres años más tarde.

Ambos fenómenos ganaron popularidad rápidamente tras las elecciones presidenciales de EE. UU. en 2016, lo que aumentó el número de investigaciones relevantes. Ahora la filial de Google dedicada a la inteligencia artificial (IA), DeepMind, ha decidido que también va a analizarlos (más vale tarde que nunca, ¿no?).

En un nuevo artículo, sus investigadores han analizado cómo los diferentes algoritmos de recomendación pueden acelerar o ralentizar ambos fenómenos, que los investigadores abordan por separado. Las cámaras de eco, según ellos, refuerzan los intereses de los usuarios a través de la exposición repetida a un contenido similar. La burbuja de filtros, en cambio, reduce el alcance del contenido al que están expuestos los usuarios. Ambos, en términos académicos, son ejemplos de "bucles de retroalimentación degenerada". Un nivel más alto de la degeneración, en este caso, se refiere a una burbuja de filtros más fuerte o al efecto de cámara de eco.

Realizaron simulaciones de cinco algoritmos de recomendación diferentes, con distintos grados de prioridad en la predicción precisa de lo que el usuario estaba interesado, promoviendo aleatoriamente nuevos contenidos. Los investigadores han descubierto que los algoritmos más centrados en la precisión provocaron una degeneración del sistema mucho más rápida. En otras palabras, la mejor manera de combatir la burbuja de filtros o las cámaras de eco es diseñando los algoritmos más exploratorios que muestren al usuario cosas que podrían no captar su interés. Aumentar el conjunto general de información de donde se extraen las recomendaciones también podría ser útil.

El profesor de ciencias informáticas en la Universidad de Minnesota (EE.UU.) Joseph A. Konstanque, quien ha realizado varias investigaciones sobre burbuja de filtros, destaca que los resultados de DeepMind no son sorprendentes. Afirma que los investigadores saben desde hace mucho tiempo que hay tensión entre la predicción precisa y la exploración efectiva de los sistemas de recomendación.

A pesar de que otros estudios previos muestran que los usuarios tolerarán niveles más bajos de precisión para beneficiarse de recomendaciones más diversas, los desarrolladores todavía carecen de incentivos para diseñar sus algoritmos de esa manera. "Siempre es más fácil 'acertar' al recomendar opciones seguras", explica Konstan.

Konstan también critica el estudio de DeepMind por considerar la burbuja de filtros y las cámaras de eco como simulaciones de aprendizaje automático en lugar de como sistemas interactivos que involucran a los humanos, una limitación que también han señalado los propios investigadores. El experto concluye: "Siempre me preocupa el trabajo que se limita a estudios de simulación (o análisis offline de datos). La gente es compleja. Por un lado, sabemos que valoran la diversidad, pero por otro, también sabemos que, si llevamos las recomendaciones demasiado lejos, los usuarios sentirán que no somos fidedignos y podríamos perderlos por completo".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Esta IA ha leído a Shakespeare para saber qué parte de una obra escribió

    Numerosos historiadores han intentado descubrir qué escenas de 'Enrique VIII' fueron escritas por el dramaturgo británico y cuáles por otro autor, John Fletcher. Ahora, un algoritmo de aprendizaje automático ha analizado el estilo de ambos para averiguar qué líneas elaboró cada uno 

  2. Cómo acabar con los algoritmos sexistas que conceden créditos

    Goldman Sachs está siendo investigada por discriminación de género tras una reciente polémica con Apple Card, pero la compañía alega que no tiene en cuenta el género para determinar la solvencia crediticia de un cliente. Las investigaciones sugieren que en realidad incluir ese criterio mitigaría el sesgo algorítmico

  3. Estas técnicas predicen conflictos antes de una escalada de violencia

    Gracias al aprendizaje automático o a las mejoras en recogida de datos, se han desarrollado modelos más precisos para pronosticar asesinatos masivos. Un ejemplo es ViEWS, que ha sido capaz de predecir algunos episodios de violencia en Etiopía. Aunque aún no son perfectos, podrían ayudar a salvar vidas