.

Inteligencia Artificial

Así planean poner límites a las posibilidades de la IA generativa los gigantes tecnológicos

1

Las grandes tecnológicas respaldan una norma que podría añadir una etiqueta de calidad a imágenes, vídeo y audio

  • por Melissa Heikkilä | traducido por
  • 15 Febrero, 2024

Este artículo apareció originalmente en The Algorithm, nuestro boletín semanal sobre IA. Para recibir antes que nadie historias como esta en su bandeja de entrada, suscríbase aquí.

Esta semana me complace traerles noticias alentadoras del mundo de la IA. Tras el deprimente escándalo del deepfake porn de Taylor Swift y la proliferación de los deepfakes políticos, como las llamadas robóticas generadas por IA con la voz presidente Biden pidiendo a los votantes que se quedaran en casa, las empresas tecnológicas están tomando medidas para detectar mejor los contenidos generados por IA.

El 6 de febrero, Meta dijo que iba a etiquetar las imágenes generadas por IA en Facebook, Instagram y Threads. Cuando alguien utilice las herramientas de IA de Meta para crear imágenes, la empresa añadirá marcadores visibles a la imagen, así como marcas de agua invisibles y metadatos en el archivo de imagen. La empresa afirma que sus normas están en consonancia con las mejores prácticas establecidas por Partnership on AI, una organización sin ánimo de lucro dedicada a la investigación de la IA.

Las grandes tecnológicas también están apoyando una prometedora norma técnica que podría añadir una etiqueta de calidad a las imágenes, el vídeo y el audio. Se llama C2PA y es un protocolo de Internet de código abierto que se basa en la criptografía para codificar detalles sobre el origen de un contenido, o lo que los tecnólogos denominan información de "procedencia". Los creadores de C2PA suelen comparar el protocolo con una etiqueta de calidad nutricional pero que indica de dónde proceden los contenidos y quién -o qué- los creó. Más información aquí.

El 8 de febrero, Google anunció que se une a otros gigantes tecnológicos como Microsoft y Adobe en el comité directivo de C2PA e incluirá su marca de agua SynthID en todas las imágenes generadas por IA en sus nuevas herramientas Gemini. Meta afirma que también participa en la C2PA. Contar con una norma para todo el sector facilita a las empresas la detección de contenidos generados por IA, independientemente del sistema con el que se hayan creado.

OpenAI también anunció la semana pasada nuevas medidas de procedencia de contenidos. Dice que añadirá marcas de agua a los metadatos de las imágenes generadas con ChatGPT y DALL-E 3, su IA de creación de imágenes. OpenAI afirma que ahora incluirá una etiqueta visible en las imágenes para señalar que han sido creadas con IA.

Estos métodos son un comienzo prometedor, pero no son infalibles. Las marcas de agua en los metadatos son fáciles de eludir haciendo una captura de pantalla de las imágenes y limitándose a utilizarla, mientras que las etiquetas visuales pueden recortarse o editarse. Quizá haya más esperanza para las marcas de agua invisibles, como la SynthID de Google, que cambia sutilmente los píxeles de una imagen para que los programas informáticos puedan detectar la marca de agua, pero el ojo humano no. Son más difíciles de manipular. Además, no hay formas fiables de etiquetar y detectar vídeo, audio o incluso texto generado por IA.

Pero la creación de estas herramientas de procedencia sigue siendo valiosa. Como me dijo Henry Ajder, experto en IA generativa, hace un par de semanas cuando le entrevisté sobre cómo evitar el porno deepfake, la cuestión es crear un “customer journey tortuoso”. En otras palabras, añadir barreras y fricción a la tubería deepfake con el fin de frenar la creación y el intercambio de contenido dañino tanto como sea posible. Es probable que una persona decidida siga siendo capaz de anular estas protecciones, pero todo ayuda.

También hay muchas soluciones no técnicas que las empresas tecnológicas podrían introducir para evitar problemas como el porno deepfake. Los principales proveedores de servicios en la nube y tiendas de aplicaciones, como Google, Amazon, Microsoft y Apple, podrían prohibir los servicios que puedan utilizarse para crear desnudos falsos no consentidos. Y deberían incluirse marcas de agua en todos los contenidos generados por inteligencia artificial, incluso en las pequeñas empresas que desarrollan esta tecnología.

Lo que me da esperanzas es que, junto a estas medidas voluntarias, estamos empezando a ver normativas vinculantes, como la Ley de Inteligencia Artificial de la UE y la Ley de Servicios Digitales, que obligan a las empresas tecnológicas a revelar los contenidos generados por IA y a retirar más rápidamente los contenidos perjudiciales. También hay un renovado interés entre los legisladores de EE UU por aprobar algunas normas vinculantes sobre deepfakes. Y a raíz de las llamadas robóticas generadas por IA del Presidente Biden diciendo a los votantes que no votaran, la Comisión Federal de Comunicaciones de EE UU anunció la semana pasada que prohibía el uso de IA en estas llamadas.

En general, soy bastante escéptica respecto a las directrices y normas voluntarias, porque no hay un mecanismo real de rendición de cuentas y las empresas pueden optar por cambiarlas cuando quieran. El sector tecnológico tiene un historial muy malo en cuanto a autorregulación. En el despiadado mundo de la tecnología, impulsado por el crecimiento, aspectos como la IA responsable suelen ser los primeros en sufrir recortes.

Pero a pesar de ello, estos anuncios son muy bienvenidos. También son mucho mejores que el statu quo, que es casi nada.

 

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. "La IA ya está teniendo un papel muy relevante en la transición energética"

    Juan José Casado, Chief Digital & Data Officer de Repsol, explica las claves del programa de transformación digital de la compañía en su apuesta por la sostenibilidad y la eficiencia.

    Foto: Juan José Casado, Chief Digital Officer y Chief Data Officer de Repsol
  2. Sam Altman vaticina una IA que resuelva tareas del mundo real por nosotros

    El CEO de Open AI afirma que no necesitaremos nuevo hardware ni muchos más datos de entrenamiento para conseguirlo.

    Sam Altman, CEO de OpenAI
  3. El polígrafo de la IA: esta herramienta ayuda a detectar patrañas en chatbots

    En muchas situaciones de alto riesgo, no merece la pena arriesgarse con grandes modelos lingüísticos. Saber qué resultados hay que desechar puede arreglarlo. 

    Un toro mirando al frente con una máquina de polígrafo alrededor del cuello. Detrás, espirales de texto superpuestas.