.

IBM Research

Inteligencia Artificial

La nueva IA de IBM gana debates aunque no entiende sus argumentos

1

Project Debater podría liderar cualquier club de debate. El programa repasa miles de textos e información para elaborar argumentos capaces de refutar cualquier punto de vista. Eso sí, no le pida que explique sus ideas, porque la máquina no comprende nada de lo que dice

  • por Will Knight | traducido por Mariana Díaz
  • 21 Junio, 2018

Durante un debate en directo, un programa de inteligencia artificial (IA) lanzó un argumento sorprendentemente convincente de que la exploración espacial debería ser financiada públicamente. Cuando un humano no estuvo de acuerdo, el programa le desafió refutando su argumento.

El debate fue mantenido entre un programa informático creado por IBM llamado Project Debater y varios participantes humanos. La sesión es la última prueba de que las máquinas de inteligencia artificial están avanzando en una capacidad que hasta ahora, estaba limitada al dominio humano: la capacidad de discutir.

Durante el evento, el programa y un participante humano se turnaron para debatir sobre un tema específico, refutar las ideas del otro y añadir un argumento de cierre. En un segundo debate, el programa defendió un mayor uso de la telemedicina, mientras que el participante humano opinó en contra.

IBM lleva años trabajando en este software de IA, que analiza cantidades ingentes de texto antes de construir un argumento sobre un tema específico. La compañía organizó el debate para promover su nuevo avance.

Project Debater no intenta comprender los argumentos con los que debate, simplemente se limita a construirlos mediante la combinación de elementos de argumentarios anteriores y puntos de información relevantes de Wikipedia.

La investigadora responsable del proyecto, Ranit Aharonov, reconoce que el algortimo es bastante limitado. "Todavía hay un largo camino por recorrer para dominar el lenguaje", reconoce. Sin embargo, cree que la tecnología podría tener varias aplicaciones prácticas. Podría ayudar a alguien a tomar una decisión importante, por ejemplo, al proporcionar una variedad de argumentos "a favor" y "en contra".

Un sistema de IA capaz de elaborar argumentos también podría, por supuesto, usarse para cosas horribles. Podría dar lugar a una nueva generación de bots aún más dañinos en redes sociales. El colaborador de Aharonov, Noam Slonim, es consciente del peligro: "Siempre hay un riesgo, pero creo que este es más limitado que el de otras tecnologías".

El CEO del Instituto Allen para Inteligencia Artificial (EE. UU.), Oren Etzioni, afirma que es difícil juzgar las capacidades del sistema de IBM si solo se tiene en cuenta el debate en directo. El experto señala: "Es más fácil organizar una demostración estructurada que una abierta en la que el programa interactúe de forma natural".

El profesor de la Universidad Northwestern (EE. UU.) Kristian Hammond, fundador de Narrative Sciences, cuya compañía que genera informes de noticias y contenidos automáticamente, cree que la tecnología podría ser útil. Pero matiza que el software de IBM simplemente repite lo que encuentra: "No hay una etapa en la que el sistema sepa de qué está hablando. Para los usamos, eso es un razonamiento mediocre".

Noam Slonim y Ranit Aharonov, los investigadores de IBM detrás de Project Debater.

Foto: Noam Slonim y Ranit Aharonov son los investigadores de IBM responsables de Project Debater. Crédito: IBM Research.

Hammond también afirma que el concurso apenas demuestra la utilidad del sistema: "Es más bien un entretenimiento", concluye.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Una revolucionaria técnica de IA aprende casi sin datos de ejemplo

    El aprendizaje 'less than one-shot', o LO-shot, puede enseñar a un modelo de inteligencia artificial a identificar más tipos de objetos que el número de clases de ejemplos con los que ha sido entrenado. Podría lograr que la IA sea más accesible para empresas e industrias y mejorar la privacidad de los datos

  2. GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

    Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta

  3. La IA médica que salvó vidas y destrozó la jerarquía de un hospital

    En los dos años que el centro ha usado Sepsis Watch, las muertes por esta dolencia se han reducido drásticamente. Este éxito no solo se debe al potencial técnico de la herramienta, también al esfuerzo del personal por diseñar nuevos protocolos para implementarla y analizar y comunicar sus retos