.

Ms Tech

Inteligencia Artificial

GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

1

Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 14 Octubre, 2020

Pillado: un bot impulsado por el poderoso modelo de lenguaje GPT-3 de OpenAI se ha ha sido descubierto tras pasar una semana publicando comentarios en Reddit. Bajo el alias /u/thegentlemetre, el bot interactuaba con personas en el popular foro /r/AskReddit con 30 millones de usuarios. Publicaba aproximadamente una vez por minuto.

Un nuevo engaño: no es la primera vez que GPT-3 engaña a la gente haciendo creer que lo que se escribe proviene de un ser humano. En agosto, un estudiante universitario utilizó el mismo enfoque para generar una publicación de blog que alcanzó el puesto número uno en Hacker News e incluso logró que algunas personas se suscribieran. GPT-3 ya se ha utilizado para redactar varios artículos sobre sí mismo, aunque todos solían terminar con un disclaimer (aviso de responsabilidad) escrito por humanos. Pero el bot se presentó como usuario normal de Reddit normal y publicó cientos de comentarios antes de ser descubierto.

Trabajo de detective: la prodigiosa publicación del bot llamó la atención de Philip Winston, quien describe en su blog cómo lo detectó. Comprobó que el lenguaje generado por el bot coincidía con los resultados de la herramienta impulsada por GPT-3 denominada Philosopher AI, configurada para responder a preguntas irónicas como "Si un árbol cae en un bosque y no hay nadie allí para oírlo, ¿la mecánica cuántica todavía manifiesta la realidad convencional sin un observador? El desarrollador de Philosopher AI no permite el uso automatizado de su servicio y bloqueó el bot de Reddit, que dejó de publicar poco después. 

¿No ha hecho ningún daño? La mayoría de los comentarios de /u/thegentlemetre fueron inofensivos. Su publicación más popular fue una historia sobre una colonia de personas que vivía en los huecos de los ascensores. Pero también participó en teorías de conspiración y otros temas delicados, incluido el suicidio. Respondiendo a una petición de consejos de los usuarios de Reddit que habían tenido pensamientos suicidas en el pasado, el bot respondió: "Creo que lo que más me ayudó probablemente fueron mis padres. Tuve muy buena relación con ellos y siempre estuvieron ahí para apoyarme independientemente de lo que hubiera pasado. Ha habido numerosas ocasiones en mi vida en las que tuve ganas de suicidarme, pero gracias a mis padres, nunca lo hice". La respuesta recibió 157 votos. 

Por qué es importante: este incidente confirmaría las preocupaciones que OpenAI planteó sobre su anterior modelo de lenguaje GPT-2, cuando aseguró que era demasiado peligroso para hacerlo público debido a su posible uso indebido. Este laboratorio de inteligencia artificial también intenta mantener el GPT-3 bajo control, dando acceso (a través de un sitio web) solo a algunas personas elegidas y el derecho para usar todo el software exclusivamente a Microsoft. No obstante, si queremos que estos sistemas no causen daño, lo que requieren es más estudio, no menos. Dejar que más investigadores examinen el código y exploren su potencial sería la opción más segura a largo plazo.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. "La IA ya está teniendo un papel muy relevante en la transición energética"

    Juan José Casado, Chief Digital & Data Officer de Repsol, explica las claves del programa de transformación digital de la compañía en su apuesta por la sostenibilidad y la eficiencia.

    Foto: Juan José Casado, Chief Digital Officer y Chief Data Officer de Repsol
  2. Sam Altman vaticina una IA que resuelva tareas del mundo real por nosotros

    El CEO de Open AI afirma que no necesitaremos nuevo hardware ni muchos más datos de entrenamiento para conseguirlo.

    Sam Altman, CEO de OpenAI
  3. El polígrafo de la IA: esta herramienta ayuda a detectar patrañas en chatbots

    En muchas situaciones de alto riesgo, no merece la pena arriesgarse con grandes modelos lingüísticos. Saber qué resultados hay que desechar puede arreglarlo. 

    Un toro mirando al frente con una máquina de polígrafo alrededor del cuello. Detrás, espirales de texto superpuestas.