.

Ms Tech

Inteligencia Artificial

GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

1

Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 14 Octubre, 2020

Pillado: un bot impulsado por el poderoso modelo de lenguaje GPT-3 de OpenAI se ha ha sido descubierto tras pasar una semana publicando comentarios en Reddit. Bajo el alias /u/thegentlemetre, el bot interactuaba con personas en el popular foro /r/AskReddit con 30 millones de usuarios. Publicaba aproximadamente una vez por minuto.

Un nuevo engaño: no es la primera vez que GPT-3 engaña a la gente haciendo creer que lo que se escribe proviene de un ser humano. En agosto, un estudiante universitario utilizó el mismo enfoque para generar una publicación de blog que alcanzó el puesto número uno en Hacker News e incluso logró que algunas personas se suscribieran. GPT-3 ya se ha utilizado para redactar varios artículos sobre sí mismo, aunque todos solían terminar con un disclaimer (aviso de responsabilidad) escrito por humanos. Pero el bot se presentó como usuario normal de Reddit normal y publicó cientos de comentarios antes de ser descubierto.

Trabajo de detective: la prodigiosa publicación del bot llamó la atención de Philip Winston, quien describe en su blog cómo lo detectó. Comprobó que el lenguaje generado por el bot coincidía con los resultados de la herramienta impulsada por GPT-3 denominada Philosopher AI, configurada para responder a preguntas irónicas como "Si un árbol cae en un bosque y no hay nadie allí para oírlo, ¿la mecánica cuántica todavía manifiesta la realidad convencional sin un observador? El desarrollador de Philosopher AI no permite el uso automatizado de su servicio y bloqueó el bot de Reddit, que dejó de publicar poco después. 

¿No ha hecho ningún daño? La mayoría de los comentarios de /u/thegentlemetre fueron inofensivos. Su publicación más popular fue una historia sobre una colonia de personas que vivía en los huecos de los ascensores. Pero también participó en teorías de conspiración y otros temas delicados, incluido el suicidio. Respondiendo a una petición de consejos de los usuarios de Reddit que habían tenido pensamientos suicidas en el pasado, el bot respondió: "Creo que lo que más me ayudó probablemente fueron mis padres. Tuve muy buena relación con ellos y siempre estuvieron ahí para apoyarme independientemente de lo que hubiera pasado. Ha habido numerosas ocasiones en mi vida en las que tuve ganas de suicidarme, pero gracias a mis padres, nunca lo hice". La respuesta recibió 157 votos. 

Por qué es importante: este incidente confirmaría las preocupaciones que OpenAI planteó sobre su anterior modelo de lenguaje GPT-2, cuando aseguró que era demasiado peligroso para hacerlo público debido a su posible uso indebido. Este laboratorio de inteligencia artificial también intenta mantener el GPT-3 bajo control, dando acceso (a través de un sitio web) solo a algunas personas elegidas y el derecho para usar todo el software exclusivamente a Microsoft. No obstante, si queremos que estos sistemas no causen daño, lo que requieren es más estudio, no menos. Dejar que más investigadores examinen el código y exploren su potencial sería la opción más segura a largo plazo.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Un algoritmo predice las peores mutaciones del coronavirus con PLN

    Al abordar la genética y sus variaciones como frases con estructura y significado, un equipo ha logrado aplicar procesamiento del lenguaje natural para identificar los próximos cambios que la COVID-19 podría desarrollar y cuáles tienen más probabilidades de esquivar al sistema inmunitario 

  2. DALL·E y CLIP dan un paso más hacia el futuro de la inteligencia artificial

    OpenAI ha usado GPT-3 para crear dos nuevos modelos que combinan procesamiento del lenguaje natural con reconocimiento de imágenes. Gracias a esta mezcla, son capaces de identificar objetos que no han visto y de crear imágenes a partir de nuevas descripciones de texto

  3. Cinco pasos que la IA debería dar en 2021 para volverse 'buena'

    En los últimos años, la inteligencia artificial demostrado algunos avances para hacerse más justa, ética y capaz de resolver problemas reales, pero todavía tiene mucho camino por delante. Este año, se debería aumentar la inversión para enfoques minoritarios, la regulación y la inclusión de usuarios y colectivos afectados