.

Inteligencia Artificial

Google plantea un revolucionario motor de búsqueda que responde como un humano

1

La compañía plantea un enfoque totalmente diferente para gestionar las consultas web que desterraría a su omnipresente algoritmo de indexación. En lugar de eso, utilizaría un gran modelo de lenguaje como GPT-3 para contestar a las preguntas directamente a partir de distintas fuentes de información

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 20 Mayo, 2021

En 1998, un par de estudiantes graduados de la Universidad de Stanford (EE. UU.) publicaron un artículo que describía un nuevo tipo de motor de búsqueda: "En este artículo, presentamos Google, un prototipo de motor de búsqueda a gran escala que hace un uso intensivo de la estructura presente en el hipertexto. Google está diseñado para rastrear y clasificar la web de manera eficiente y producir resultados de búsqueda mucho más satisfactorios que los sistemas existentes".

La innovación clave fue su algoritmo denominado PageRank, que clasificaba los resultados de búsqueda en función de su relevancia para la consulta del usuario. Este cálculo se llevaba a cabo mediante la base de sus enlaces a otras páginas de la web. Gracias a PageRank, Google se convirtió en la puerta de entrada a internet, y Sergey Brin y Larry Page construyeron una de las empresas más grandes del mundo.

En la actualidad, un equipo de investigadores de Google ha publicado una propuesta para un rediseño radical que sustituye el enfoque de clasificación por un único gran modelo de lenguaje de inteligencia artificial (IA), como BERT o GPT-3, o una versión futura de alguno de ellos. La idea consiste en que, en vez de buscar información en una amplia lista de páginas web, los usuarios hagan preguntas y dispongan de un modelo de lenguaje entrenado en esas páginas que las responda directamente. Ese enfoque podría cambiar no solo el funcionamiento de los motores de búsqueda, sino también lo que hacen y cómo interactuamos con ellos.

Rediseñar PageRank

Los motores de búsqueda se han vuelto más rápidos y precisos, aunque la web ha crecido enormemente. La IA se utiliza para clasificar los resultados, y Google usa BERT para comprender mejor las consultas de búsqueda. Sin embargo, debajo de estos ajustes, todos los motores de búsqueda convencionales todavía funcionan de la misma manera que hace 20 años: páginas web clasificadas por rastreadores (software que revisa la web sin parar y mantiene una lista de todo lo que encuentra) y resultados que coinciden con la consulta del usuario que se recogen de este índice y se clasifican.

"Este modelo de índice y clasificación ha resistido la prueba del tiempo y rara vez ha sido desafiado o replanteado seriamente", escriben el investigador de Google Research Donald Metzler y sus colegas.

El problema consiste en que incluso los mejores motores de búsqueda actuales todavía responden con una lista de documentos que incluyen la información solicitada, pero no con la información en sí. Los motores de búsqueda tampoco son buenos para responder a consultas que requieren respuestas extraídas de múltiples fuentes. Es como si le pidiera consejo a su médico y recibiera una lista de artículos para leer en vez de una respuesta directa.

Metzler y sus colegas quieren un motor de búsqueda que se comporte como un experto humano. Debe generar respuestas en lenguaje natural, sintetizadas a partir de más de un documento, y respaldar sus respuestas con referencias a documentos justificativos, como pretenden hacer los artículos de Wikipedia.

Los grandes modelos de lenguaje recorren una gran parte de ese camino. GPT-3, por ejemplo, entrenado en casi toda la web y cientos de libros en inglés, extrae información de múltiples fuentes para responder a preguntas en lenguaje natural. El problema es que no realiza un seguimiento de esas fuentes y no puede proporcionar evidencia para sus respuestas. No hay forma de saber si GPT-3 está repitiendo información fiable o desinformación, o simplemente suelta tonterías de su propia creación.

Metzler y sus colegas se refieren a los modelos del lenguaje como diletantes: "Se percibe que saben mucho, pero su conocimiento es superficial". La solución, afirman, es construir y entrenar futuros BERT y GPT-3 para guardar registros de sus fuentes de información. Ningún modelo de este tipo es capaz todavía de hacer esto, pero en principio sería posible, y hay algunos trabajos iniciales en esa dirección.

Según el investigador de recuperación de información en la web de la Universidad de Sheffield (Reino Unido) Ziqi Zhang, ha habido décadas de progreso en diferentes áreas de búsqueda, desde responder a las consultas hasta resumir documentos y estructurar la información. Pero ninguna de estas tecnologías revisaba la búsqueda, porque cada una abordaba problemas específicos y no es generalizable. La estimulante premisa de este artículo es que los grandes modelos de lenguaje podrían hacer todas estas cosas al mismo tiempo, resalta Zhang.

Sin embargo, Zhang señala que los modelos de lenguaje no funcionan bien con temas técnicos o especializados porque hay menos ejemplos en el texto en el que se entrenan. "Probablemente hay cientos de veces más datos sobre comercio electrónico que sobre mecánica cuántica", asegura. Los actuales modelos lingüísticos también están más inclinados hacia el inglés, lo que dejaría desatendidas las partes de la web que no están en esa lengua.

A la especialista en lenguaje natural de la Universidad de Washington (EE. UU.) Hanna Hajishirzi le gusta bastante este nuevo enfoque, pero advierte que tendría problemas en la práctica. La experta señala: "Creo que los grandes modelos de lenguaje son muy importantes y tienen el potencial de convertirse en el futuro de los motores de búsqueda, pero requieren una gran memoria y recursos computacionales. No creo que sustituyan a la indexación".

Aun así, Zhang aprecia la idea. Y concluye: "Esto no era posible en el pasado, porque los grandes modelos de lenguaje han aparecido recientemente. Si llega a funcionar, transformaría nuestra experiencia de búsqueda".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana
  2. "La pregunta es cuánta participación humana se necesita para que algo sea arte"

    Alex Reben hace arte con (y sobre) IA. Hablé con él sobre lo que la nueva ola de modelos generativos significa para el futuro de la creatividad humana

    Detalle de un cuadro de una cabeza deformada en la que unas enormes orejas en la parte frontal de la cara tapan los ojos y una lengua brillante con textura de fresa sobresale de la boca abierta.
  3. Compensación y atribución para los creadores, la apuesta de Adobe por una IA generativa diferente

    La empresa afirma que es la prueba de que los modelos de IA de calidad no tienen por qué incluir polémicos contenidos protegidos por derechos de autor

    Imagen generada mediante IA de una mano que utiliza una cuchilla de precisión para cortar un dibujo de la realidad