.

Flickr / Book Catalog

Cadenas de bloques y aplicaciones

Los tres retos de Facebook para eliminar las noticias falsas con IA

1

Por mucho que Mark Zuckerberg crea que la inteligencia artificial automatizará gran parte del proceso de detectar y eliminar los contenidos falsos que se publican en la red social, para lograrlo hay que abordar tres grandes problemas intrínsecos de la propia tecnología

  • por Will Knight | traducido por Mariana Díaz
  • 17 Abril, 2018

La semana el CEO de Facebook, Mark Zuckerberg, le dijo al Congreso de Estados Unidos que su red social se va a apoyar cada vez más en la inteligencia artificial (IA) para eliminar el discurso de odio que tanto se ha masificado en la plataforma. Zuckerberg afirmó: "Soy optimista, y creo que en un período de cinco a 10 años tendremos herramientas de inteligencia artificial capaces de detectar algunos de los matices lingüísticos de diferentes tipos de contenido para ser más precisos". El CEO fue llamado a testificar después del escándalo de la apropiación indebida de los datos personales de millones de usuarios por parte de Cambridge Analytica (ver Los efectos del escándalo de Facebook para el futuro de la democracia).

Facebook ya emplea a 15.000 moderadores humanos para detectar y eliminar contenido ofensivo y explicó que planea contratar a otros 5.000 a finales de este año. Pero de momento, esos moderadores solo actúan ante publicaciones que los propios usuarios ya han denunciado como contenido ofensivo. La IA podría identificar y eliminar el contenido potencialmente ofensivo más rápido y fácilmente. Pero lograrlo no será fácil, principalmente por tres razones:

1. Las palabras son fáciles de identificar, pero su significado no

El lenguaje sigue siendo un gran desafío para la IA. Aunque a un ordenador no le cuesta demasiado identificar palabras o frases clave, o valorar a qué sentimientos se asocia un texto, a las máquinas le cuesta mucho comprender el significado de una publicación. Esta capacidad requeriría un conocimiento mucho más profundo del mundo. Lo que hace que el lenguaje sea una forma de comunicación tan poderosa y compleja es el sentido común y los modelos mentales que tenemos de otras personas y que usamos para comprimir mucha información en pocas palabras.

"Los bulos en particular serán muy difíciles de reconocer", dice el profesor de la Universidad de Nueva York (EE. UU.) Ernest Davis, especializado en el desafío del razonamiento de sentido común en los ordenadores. El experto añade: "Mira lo que hacen en Maldito Bulo, ellos analizan una gran variedad de cosas. Y los bulos a menudo se componen de medias verdades".

2. Es una carrera armamentística

Por mucho que las máquinas mejoren su capacidad de entender el lenguaje natural, quienes promueven el odio y la información falsa podrían utilizar las mismas herramientas para evitar ser detectados.

Así lo advierte el CEO de Primer, Sean Gourley, cuya compañía emplea IA para generar informes para las agencias de inteligencia de EE. UU. En un evento reciente de MIT Technology Review, Gourley afirmó que en un futuro no muy lejano será inevitable que la IA se use para producir bulos y noticias falsas de forma masiva y personalizada (ver Las noticias falsas 2.0 serán mucho más creíbles e imparables)

3. El vídeo complicará las cosas aún más

Tal vez ya estamos asistiendo al comienzo de una era mucho más agresiva de noticias falsas (ver La tecnología para manipular contenidos amenaza con devolvernos a las noticias del siglo XX). Los investigadores han demostrado que es posible producir vídeos y audios falsos increíblemente realistas mediante el aprendizaje automático. Esta tecnología ha permitido crear vídeos de políticos que parecen lanzar discursos que en realidad nunca ocurrieron, y organizar venganzas mediante pornografía falsificada.  

Comprender lo que pasa en un vídeo es uno de los retos actuales de los investigadores de IA. Los vídeos falsos hechos de esta manera también podrían resultar especialmente difíciles de detectar para una inteligencia artificial. Para crearlos hacen falta una tecnología que enfrenta a dos redes neuronales que compiten para generar y detectar imágenes falsas (ver TR10: Redes generativas antagónicas). El proceso depende de engañar a una de las redes para que piense que algo es real, así que construir un sistema que pueda detectar a las falsificaciones sería difícil.

Cadenas de bloques y aplicaciones

Qué significa estar constantemente contectados unos a otros y disponer de inmensas cantidades de información al instante.

  1. Lo que se sabe sobre el falso tutorial de Tik Tok que criticaba a China

    Feroza Aziz lanzó un vídeo que parecía ser de maquillaje en el que criticaba la persecución del país a la comunidad uigur. Aunque la red social afirma que no censura contenidos políticos, lo cierto es que su cuenta primero se cayó y luego fue bloqueada durante un mes

  2. Twitter no eliminará cuentas inactivas hasta que honre a los fallecidos

    Hace unos días, la popular red social alertó a sus usuarios de que eliminaría las cuentas que no hubieran sido utilizadas durante más de seis meses. Los familiares y amigos de usuarios fallecidos han lamentado la medida y Twitter ha dado marcha atrás. Ahora, debe crear una política para conmemorarlos

  3. Adiós violencia, el humor será el nuevo protagonista de los viodejuegos

    La enorme popularidad del juego 'Untitled Goose Game' reside en que permite que el jugador participe en situaciones cómicas. Esa conexión personal hace que las aventuras del ganso resulten aún más divertidas y podría convertirse en la nueva moda de la industria para dejar de lado las historias de disparos y carreras