.

Flickr / Book Catalog

Cadenas de bloques y aplicaciones

Los tres retos de Facebook para eliminar las noticias falsas con IA

1

Por mucho que Mark Zuckerberg crea que la inteligencia artificial automatizará gran parte del proceso de detectar y eliminar los contenidos falsos que se publican en la red social, para lograrlo hay que abordar tres grandes problemas intrínsecos de la propia tecnología

  • por Will Knight | traducido por Mariana Díaz
  • 17 Abril, 2018

La semana el CEO de Facebook, Mark Zuckerberg, le dijo al Congreso de Estados Unidos que su red social se va a apoyar cada vez más en la inteligencia artificial (IA) para eliminar el discurso de odio que tanto se ha masificado en la plataforma. Zuckerberg afirmó: "Soy optimista, y creo que en un período de cinco a 10 años tendremos herramientas de inteligencia artificial capaces de detectar algunos de los matices lingüísticos de diferentes tipos de contenido para ser más precisos". El CEO fue llamado a testificar después del escándalo de la apropiación indebida de los datos personales de millones de usuarios por parte de Cambridge Analytica (ver Los efectos del escándalo de Facebook para el futuro de la democracia).

Facebook ya emplea a 15.000 moderadores humanos para detectar y eliminar contenido ofensivo y explicó que planea contratar a otros 5.000 a finales de este año. Pero de momento, esos moderadores solo actúan ante publicaciones que los propios usuarios ya han denunciado como contenido ofensivo. La IA podría identificar y eliminar el contenido potencialmente ofensivo más rápido y fácilmente. Pero lograrlo no será fácil, principalmente por tres razones:

1. Las palabras son fáciles de identificar, pero su significado no

El lenguaje sigue siendo un gran desafío para la IA. Aunque a un ordenador no le cuesta demasiado identificar palabras o frases clave, o valorar a qué sentimientos se asocia un texto, a las máquinas le cuesta mucho comprender el significado de una publicación. Esta capacidad requeriría un conocimiento mucho más profundo del mundo. Lo que hace que el lenguaje sea una forma de comunicación tan poderosa y compleja es el sentido común y los modelos mentales que tenemos de otras personas y que usamos para comprimir mucha información en pocas palabras.

"Los bulos en particular serán muy difíciles de reconocer", dice el profesor de la Universidad de Nueva York (EE. UU.) Ernest Davis, especializado en el desafío del razonamiento de sentido común en los ordenadores. El experto añade: "Mira lo que hacen en Maldito Bulo, ellos analizan una gran variedad de cosas. Y los bulos a menudo se componen de medias verdades".

2. Es una carrera armamentística

Por mucho que las máquinas mejoren su capacidad de entender el lenguaje natural, quienes promueven el odio y la información falsa podrían utilizar las mismas herramientas para evitar ser detectados.

Así lo advierte el CEO de Primer, Sean Gourley, cuya compañía emplea IA para generar informes para las agencias de inteligencia de EE. UU. En un evento reciente de MIT Technology Review, Gourley afirmó que en un futuro no muy lejano será inevitable que la IA se use para producir bulos y noticias falsas de forma masiva y personalizada (ver Las noticias falsas 2.0 serán mucho más creíbles e imparables)

3. El vídeo complicará las cosas aún más

Tal vez ya estamos asistiendo al comienzo de una era mucho más agresiva de noticias falsas (ver La tecnología para manipular contenidos amenaza con devolvernos a las noticias del siglo XX). Los investigadores han demostrado que es posible producir vídeos y audios falsos increíblemente realistas mediante el aprendizaje automático. Esta tecnología ha permitido crear vídeos de políticos que parecen lanzar discursos que en realidad nunca ocurrieron, y organizar venganzas mediante pornografía falsificada.  

Comprender lo que pasa en un vídeo es uno de los retos actuales de los investigadores de IA. Los vídeos falsos hechos de esta manera también podrían resultar especialmente difíciles de detectar para una inteligencia artificial. Para crearlos hacen falta una tecnología que enfrenta a dos redes neuronales que compiten para generar y detectar imágenes falsas (ver TR10: Redes generativas antagónicas). El proceso depende de engañar a una de las redes para que piense que algo es real, así que construir un sistema que pueda detectar a las falsificaciones sería difícil.

Cadenas de bloques y aplicaciones

Qué significa estar constantemente contectados unos a otros y disponer de inmensas cantidades de información al instante.

  1. Google halla un ciberataque masivo que ha infectado miles de iPhones

    El gigante ha descubierto una serie de páginas web infectadas que descargaban malware iOS cada vez que un dispositivo accedía a ellas. Aunque Apple lanzó un parche el pasado 7 de febrero, los datos de los aparatos comprometidos ya han sido robados. Todavía no se sabe quién es el responsable

  2. La humanidad ya tuvo monedas privadas como Libra y fueron un caos

    Si las criptomonedas digitales como la que planea lanzar Facebook comienzan a competir con las monedas nacionales, la volatilidad de todas ellas podría aumentar y generar inestabilidad en los tipos de cambio. Eso fue precisamente lo que pasó en EE. UU. antes de que el dólar se impusiera 

  3. Por qué el Gobierno de EE. UU. teme a Libra, la criptomoneda de Facebook

    La semana pasada, la empresa se sometió a dos interrogatorios para intentar aclarar qué es y cómo funcionará. Las respuestas dejaron claro que si sus planes salen bien, la red social se hará con un inmenso poder económico que podría desestabilizar monedas y gobiernos