.

Inteligencia Artificial

La IA influye en las elecciones menos de lo que se temía

1

La atención dispensada a la inteligencia artificial nos distrae de algunas amenazas más profundas y duraderas para la democracia

  • por Felix M. Simon | traducido por
  • 09 Septiembre, 2024

Este año, cerca de la mitad de la población mundial tiene la oportunidad de participar en unas elecciones. Y existe un flujo constante de expertos, instituciones, académicos y medios de comunicación que advierten de una nueva e importante amenaza para la integridad de esas elecciones: la inteligencia artificial.

Las primeras predicciones advertían de que un nuevo mundo impulsado por la IA nos empujaba hacia “un Armagedón tecnológico” en el que las elecciones se malograrían y que cualquiera que no estuviera preocupado era porque no estaba prestando atención. Internet está lleno de historias catastrofistas que proclaman que los deepfakes generados por la IA engañarán e influirán en los votantes, además de permitir nuevas formas de publicidad política personalizada y dirigida. Aunque estas afirmaciones son preocupantes, es fundamental examinar las pruebas. Una vez concluidas un número considerable de las elecciones de este año, es un buen momento para preguntarse hasta qué punto han sido precisas estas previsiones hasta la fecha. La respuesta preliminar parece ser que no mucho: las primeras afirmaciones alarmistas sobre la IA y las elecciones parecen haber sido exageradas.

Aunque este año habrá más elecciones en las que la IA podría tener un efecto, siendo Estados Unidos una de las que probablemente atraiga más atención, es poco probable que cambie la tendencia observada hasta ahora. La IA sí se está utilizando para intentar influir en los procesos electorales, pero estos esfuerzos no han sido fructíferos. En relación con las próximas elecciones estadounidenses, el último Informe sobre Amenazas Adversas de Meta reconocía que la IA se estaba utilizando para inmiscuirse (por ejemplo, mediante operaciones lanzadas desde Rusia), pero que las tácticas impulsadas por la inteligencia artificial generativa sólo proporcionaban ganancias en términos de productividad y generación de contenidos a los propios protagonistas de las amenazas. En este sentido, el presidente de asuntos globales de la compañía, Nick Clegg, declaró a principios de año que era “sorprendente” lo “poco” que se habían utilizado estas herramientas de forma sistemática “para intentar subvertir e interrumpir las elecciones”.

Lejos de estar dominado por las catástrofes provocadas por la IA, este “super año electoral” fue bastante parecido a cualquier otro año electoral.

Aunque Meta tiene un gran interés en minimizar el supuesto impacto de la IA en las elecciones, no es la única en esta línea. En mayo, el respetado Instituto Alan Turing del Reino Unido publicó resultados similares. Allí, los investigadores estudiaron más de 100 elecciones nacionales celebradas desde 2023 y descubrieron que “solo se identificaron 19 que mostrasen interferencia de IA”. Además, las pruebas no demostraron ningún signo de “cambios significativos en los resultados electorales en comparación con el rendimiento esperado de los candidatos políticos a partir de los datos de las encuestas”.

Todo esto plantea una pregunta: ¿por qué estaban tan equivocadas estas especulaciones iniciales sobre la interferencia electoral posibilitada por la IA, y qué nos dice esto sobre el futuro de nuestras democracias? La respuesta es breve: porque ignoraron décadas de investigación sobre la limitada influencia de las campañas de persuasión de masas, la complejidad de los determinantes del comportamiento electoral y el papel causal indirecto y mediado por el ser humano de la tecnología.

En primer lugar, persuadir a las masas es notablemente difícil. Las herramientas de IA pueden facilitar la persuasión, pero hay otros factores críticos. Cuando se les presenta nueva información, las personas suelen actualizar sus creencias en consecuencia; sin embargo, incluso en las mejores condiciones, esa actualización suele ser mínima y rara vez se traduce en un cambio de comportamiento. Aunque los partidos políticos y otros grupos invierten sumas colosales para influir en los votantes, la evidencia sugiere que la mayoría de las formas de persuasión política tienen efectos muy pequeños en el mejor de los casos. Y en la mayoría de los acontecimientos de alto riesgo, como las elecciones nacionales, entran en juego multitud de factores que reducen el efecto de cualquier intento de persuasión.

En segundo lugar, para que un contenido sea influyente, primero debe llegar al público al que va dirigido. Pero hoy en día, individuos, campañas políticas y medios de comunicación, entre otros, publican a diario un tsunami de información. En consecuencia, el material generado por IA, como cualquier otro contenido, se enfrenta a importantes retos para abrirse paso entre el ruido y llegar a su público objetivo. Algunos estrategas políticos de Estados Unidos también han argumentado que el uso excesivo de contenidos generados por IA podría hacer que la gente simplemente desconectara, lo que reduciría aún más el alcance de los mismos. Incluso si un contenido de este tipo llega a un número significativo de votantes potenciales, es probable que no consiga influir en un número suficiente para alterar los resultados.

En tercer lugar, las nuevas investigaciones cuestionan la idea de que el uso de la IA para dirigirse a un público específico e influir en su comportamiento electoral funcione tan bien como se temía en un principio. Parece que los votantes no sólo reconocen los mensajes excesivamente personalizados, sino que les desagradan profundamente. Según algunos estudios recientes, se han exagerado los efectos persuasivos de la IA, al menos por ahora. Es probable que esto siga siendo así, ya que unos sistemas de IA cada vez mayores no tienen por qué traducirse automáticamente en una mejor persuasión. Las campañas políticas también parecen haberse dado cuenta de ello. Si se habla con los profesionales de las campañas, no dudarán en admitir que utilizan la IA, pero principalmente para optimizar tareas “mundanas” como la recaudación de fondos, la captación de votos y las operaciones generales de la campaña; no para generar nuevos contenidos muy personalizados.

En cuarto lugar, el comportamiento electoral está determinado por un complejo nexo de factores. Entre ellos se incluyen el género, la edad, la clase, los valores, las identidades y la socialización. La información, independientemente de su veracidad u origen (ya sea elaborada por una IA o por un ser humano), suele desempeñar un papel secundario en este proceso. Esto se debe a que el consumo y la aceptación de la información dependen de factores preexistentes, como si coincide con las inclinaciones políticas o los valores de la persona, y no de si ese contenido ha sido generado por la IA.

La preocupación por la IA y la democracia, y en particular por las elecciones, está justificada. El uso de la IA puede perpetuar y amplificar las desigualdades sociales existentes o reducir la diversidad de perspectivas a las que están expuestas las personas. El acoso y abuso de mujeres políticas con la ayuda de la IA es deplorable. Y la percepción, parcialmente creada por la cobertura mediática, de que la IA tiene efectos significativos podría bastar por sí misma para disminuir la confianza en los procesos democráticos y en las fuentes de información fiable, y debilitar la aceptación de los resultados electorales. Nada de esto es bueno para la democracia y las elecciones.

Sin embargo, estos puntos no deben hacernos perder de vista las amenazas a la democracia y las elecciones que no tienen nada que ver con la tecnología: la privación masiva del derecho de voto; la intimidación de funcionarios electorales, candidatos y votantes; los ataques a periodistas y políticos; el vaciamiento de los controles y equilibrios; los políticos que venden falsedades; y diversas formas de opresión estatal (incluidas las restricciones a la libertad de expresión, la libertad de prensa y el derecho a la protesta).

De al menos 73 países que celebran elecciones este año, sólo 47 están clasificados como, o bien democracias plenas, o bien democracias imperfectas, según el Índice de Democracia de Our World in Data/Economist. El resto son regímenes híbridos o autoritarios. En países donde las elecciones ni siquiera son libres o justas y donde pensar que estas elecciones conducen a un cambio real es una ilusión, la gente tiene cosas más graves de las que preocuparse.

Y aun así, la tecnología, IA incluida, se convierte a menudo en un cómodo chivo expiatorio, señalado por políticos e intelectuales públicos como uno de los principales males que aquejan a la vida democrática. A principios de este año, la presidenta de Suiza, Viola Amherd, advirtió en el Foro Económico Mundial de Davos que “los avances en IA permiten que la información falsa parezca cada vez más creíble” y suponen una amenaza para la confianza. También el Papa Francisco advirtió de que las noticias falsas podrían legitimarse a través de la IA. La vicefiscal general de Estados Unidos, Lisa Monaco , afirmó que la IA podría potenciar la desinformación y la violencia en las elecciones. Este agosto, el alcalde de Londres, Sadiq Kahn, pidió una revisión de la Ley de Seguridad en Línea del Reino Unido, tras los disturbios de extrema derecha en todo el país, argumentando que “la forma en que funcionan los algoritmos, la forma en que la desinformación puede propagarse muy rápidamente y la desinformación son motivos de preocupación”.

Las motivaciones para culpar a la tecnología son abundantes y no necesariamente irracionales. Para algunos políticos, puede ser más fácil señalar con el dedo a la IA que enfrentarse al escrutinio o comprometerse a mejorar las instituciones democráticas que podrían exigirles responsabilidades. Para otros, intentar “arreglar la tecnología” puede parecer más atractivo que abordar algunos de los problemas fundamentales que amenazan la vida democrática. También puede influir el deseo de hablar del espíritu de la época.

Sin embargo, debemos recordar que una reacción exagerada basada en suposiciones infundadas tiene un coste, especialmente cuando no se abordan otras cuestiones críticas. Las narrativas excesivamente alarmistas sobre los supuestos efectos de la IA en la democracia corren el riesgo de alimentar la desconfianza y sembrar la confusión entre el público, lo que podría erosionar aún más los ya de por sí bajos niveles de confianza en la información y en las instituciones que hay en muchos países. Un punto que se plantea a menudo en el contexto de estos debates es la necesidad de hechos. Se argumenta que no puede haber democracia sin hechos y sin una realidad compartida. Y es cierto. Pero no podemos insistir en la necesidad de un debate basado en hechos mientras insistimos en una narrativa de que la IA está “turboalimentando” la decadencia democrática y electoral que es muy fácil de refutar. La democracia está amenazada, sí; pero es improbable que nuestra obsesión por el supuesto impacto de la IA mejore las cosas, e incluso podría empeorarlas si nos lleva a centrarnos únicamente en lo nuevo y brillante, distrayéndonos de los problemas más duraderos que ponen en peligro las democracias en todo el mundo.

Felix M. Simon es investigador sobre Inteligencia Artificial y Noticias en el Instituto Reuters para el Estudio del Periodismo; Keegan McBride es profesor adjunto de Inteligencia Artificial, Gobierno y Política en el Oxford Internet Institute; Sacha Altay es investigador en el Departamento de Ciencias Políticas de la Universidad de Zúrich.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Estos nuevos modelos de IA ayudan a los robots a hacer tareas en entornos desconocidos

    Los "modelos de utilidad robótica" evitan la necesidad de ajustar los datos de entrenamiento cada vez que intentan hacer algo en entornos desconocidos

  2. Las elecciones europeas muestran la fortaleza de las democracias frente a los 'deepfakes' con IA

    El contenido malicioso generado por IA no parece haber servido para manipular a los electores. Aún así, existe el riesgo de que pueda hacerlo en el futuro, según explican los investigadores

  3. Un concurso reta a crear una IA que luche contra los contenidos de odio

    A medida que más actores maliciosos usan IA generativa para producir imágenes de odio en línea, Humane Intelligence quiere buscar formas de utilizar la IA para rastrearlas y eliminarlas