.

Ms Tech

Inteligencia Artificial

GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

1

Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 14 Octubre, 2020

Pillado: un bot impulsado por el poderoso modelo de lenguaje GPT-3 de OpenAI se ha ha sido descubierto tras pasar una semana publicando comentarios en Reddit. Bajo el alias /u/thegentlemetre, el bot interactuaba con personas en el popular foro /r/AskReddit con 30 millones de usuarios. Publicaba aproximadamente una vez por minuto.

Un nuevo engaño: no es la primera vez que GPT-3 engaña a la gente haciendo creer que lo que se escribe proviene de un ser humano. En agosto, un estudiante universitario utilizó el mismo enfoque para generar una publicación de blog que alcanzó el puesto número uno en Hacker News e incluso logró que algunas personas se suscribieran. GPT-3 ya se ha utilizado para redactar varios artículos sobre sí mismo, aunque todos solían terminar con un disclaimer (aviso de responsabilidad) escrito por humanos. Pero el bot se presentó como usuario normal de Reddit normal y publicó cientos de comentarios antes de ser descubierto.

Trabajo de detective: la prodigiosa publicación del bot llamó la atención de Philip Winston, quien describe en su blog cómo lo detectó. Comprobó que el lenguaje generado por el bot coincidía con los resultados de la herramienta impulsada por GPT-3 denominada Philosopher AI, configurada para responder a preguntas irónicas como "Si un árbol cae en un bosque y no hay nadie allí para oírlo, ¿la mecánica cuántica todavía manifiesta la realidad convencional sin un observador? El desarrollador de Philosopher AI no permite el uso automatizado de su servicio y bloqueó el bot de Reddit, que dejó de publicar poco después. 

¿No ha hecho ningún daño? La mayoría de los comentarios de /u/thegentlemetre fueron inofensivos. Su publicación más popular fue una historia sobre una colonia de personas que vivía en los huecos de los ascensores. Pero también participó en teorías de conspiración y otros temas delicados, incluido el suicidio. Respondiendo a una petición de consejos de los usuarios de Reddit que habían tenido pensamientos suicidas en el pasado, el bot respondió: "Creo que lo que más me ayudó probablemente fueron mis padres. Tuve muy buena relación con ellos y siempre estuvieron ahí para apoyarme independientemente de lo que hubiera pasado. Ha habido numerosas ocasiones en mi vida en las que tuve ganas de suicidarme, pero gracias a mis padres, nunca lo hice". La respuesta recibió 157 votos. 

Por qué es importante: este incidente confirmaría las preocupaciones que OpenAI planteó sobre su anterior modelo de lenguaje GPT-2, cuando aseguró que era demasiado peligroso para hacerlo público debido a su posible uso indebido. Este laboratorio de inteligencia artificial también intenta mantener el GPT-3 bajo control, dando acceso (a través de un sitio web) solo a algunas personas elegidas y el derecho para usar todo el software exclusivamente a Microsoft. No obstante, si queremos que estos sistemas no causen daño, lo que requieren es más estudio, no menos. Dejar que más investigadores examinen el código y exploren su potencial sería la opción más segura a largo plazo.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Facebook lanza una IA capaz de traducir entre 100 idiomas diferentes

    La gran innovación del modelo es que una parte importante de las traducciones entre idiomas se hace de forma directa sin pasar por el inglés como lengua intermediaria. Aunque de momento M2M-100 solo está destinado a fines de investigación, en el futuro la compañía podría aplicarlo a sus propios productos

  2. Es hora de cambiar las leyes que dan ventaja a la IA frente al humano

    En su último libro, 'El robot razonable: la inteligencia artificial y la ley', Ryan Abbott advierte que las políticas fiscales fomentan la automatización, útil o no, porque la mano de obra se grava más que el capital, y defiende una regulación neutra que garantice los ingresos fiscales y la productividad

  3. Una revolucionaria técnica de IA aprende casi sin datos de ejemplo

    El aprendizaje 'less than one-shot', o LO-shot, puede enseñar a un modelo de inteligencia artificial a identificar más tipos de objetos que el número de clases de ejemplos con los que ha sido entrenado. Podría lograr que la IA sea más accesible para empresas e industrias y mejorar la privacidad de los datos