.

Foto: Andrew Burton/Getty. Teléfono: Aulia_icons, ID/Noun Project

Inteligencia Artificial

Alibaba reta a Google con una IA que conversa como los humanos

1

El gigante del comercio electrónico chino ha demostrado la asombrosa capacidad de su asistente de voz inteligente para comprender el lenguaje natural. Usado para charlar con los clientes sobre la entrega de paquetes, este agente es un duro rival para Duplex, la IA parlante de Google

  • por Karen Hao | traducido por Ana Milutinovic
  • 10 Diciembre, 2018

En mayo, Google provocó un gran revuelo cuando mostró que Duplex, su asistente de voz inquietantemente humano, era capaz de hacer reservas en restaurantes y citas en salones de belleza (ver Duplex, la IA parlante de Google, suena increíblemente humana). Parecía marcar un nuevo hito en la generación del habla y la comprensión del lenguaje natural, y abrió el telón sobre cómo podría ser el futuro de la interacción entre los humanos y la inteligencia artificial (IA).

Pero mientras Google implementa lentamente esta función en un limitado lanzamiento público, el asistente de voz de Alibaba ya ha estado haciendo horas extras. El 2 de diciembre, en la Conferencia de Sistemas de Procesamiento de información Neuronal de 2018, uno de los mayores eventos anuales sobre investigación de IA, Alibaba realizó una demostración de su asistente IA de atención al cliente para su compañía logística Cainiao. El decano del Laboratorio de Inteligencia de Máquinas y Tecnología de Alibaba, Jin Rong, afirmó que el agente ya está atendiendo a millones de solicitudes de clientes al día.

En la llamada de demostración pregrabada se escuchaba al agente preguntándole a un cliente dónde quería que le enviaran su paquete. En el intercambio de preguntas y respuestas, el agente superó con éxito varios elementos de conversación que demostraron sus amplios conocimientos del lenguaje natural.

Así fue la conversación al comienzo de la llamada, traducida del mandarín:

Agente: Hola, soy el asistente de voz de Cainiao. Soy... 
Cliente: Hola. 
A: Sí, hola, tiene un paquete programado para ser entregado por la mañana a la dirección Culture West Road 588. ¿Le viene bien recibirlo en ese momento? 
C: ¿Quién es usted? 
A: Soy el asistente de voz de Cainiao. Me gustaría confirmar su entrega por la mañana a Culture West Road 588. ¿Le parece bien? 
C: No estoy en casa por la mañana. 
A: Entonces, ¿tiene otra dirección que quiere que usemos?

En 30 segundos, el agente ha gestionado sin problemas tres ingredientes comunes y complicados de una conversación: interrupción, conversación no lineal e intención implícita. La interrupción es obvia: el agente puede responder a la interrupción del cliente y continuar transmitiendo información relevante sin comenzar de nuevo ni perder el ritmo.

La conversación no lineal se produce cuando el cliente pregunta: "¿Quién es usted?" Esto requiere que el agente se dé cuenta de que el cliente no responde a la pregunta anterior, sino que comienza una nueva línea de consulta. En respuesta, el agente se vuelve a presentar antes de regresar a la pregunta original.

La intención implícita ocurre cuando el cliente responde: "No estoy en casa por la mañana". Nunca dice explícitamente lo que realmente quiere decir: que la entrega a domicilio no le viene bien en ese momento, pero el agente es capaz de leer entre líneas y continuar razonablemente.

Estos elementos pueden ser muy comunes en las conversaciones humanas, pero las máquinas tienen dificultades a menudo para gestionarlos. El hecho de que el asistente de voz de Alibaba pueda hacerlo sugiere que es más sofisticado que Google Duplex, a juzgar por los ejemplos de llamadas similares mostradas por el gigante tecnológico estadounidense. Sin embargo, cabe destacar que la llamada de demostración de Alibaba está diseñada para la presentación en un escenario, por lo que la experiencia podría diferir en la realidad.

Actualmente, el agente se usa solo para coordinar las entregas de paquetes, pero Jin afirmó que su uso podría ampliarse para gestionar otros asuntos. Aunque no quiso revelar completamente cómo habían entrenado al asistente, aludió al uso de una gran cantidad de grabaciones de clientes que la empresa tenía a su disposición, además de otros recursos. En un día normal, la compañía recibe una media de 50.000 llamadas a la atención al cliente, según las diapositivas de la presentación, una cifra que se quintuplica en el Día del Soltero (que se celebra en China el 11 de noviembre), la festividad en la que consiguen mayores ingresos.

Alibaba también está desarrollando asistentes digitales para otros aspectos de su negocio, como un agente de pedidos de  comida que es capaz atender un pedido en restaurantes ruidosos y en tiendas, un avatar virtual similar a un humano que puede responder a las preguntas sobre los productos de Alibaba y un chatbot de regateo de precios que ya utiliza el 20 % de los vendedores en la plataforma de reventa de Alibaba, Xianyu.

En el fondo, cada uno de estos asistentes está impulsado por su motor del reconocimiento de voz y procesamiento de lenguaje natural llamado AliMe, desarrollado por el Laboratorio de Inteligencia de Máquinas y Tecnología de la compañía. Después, se empaquetan y se adaptan a diferentes partes del negocio.

La mayor ventaja de Alibaba en este campo es la abrumadora riqueza de datos que tiene para entrenar a su IA. Los asistentes aprenden y mejoran más rápido debido a la cantidad de práctica que tienen para gestionar todo tipo de situaciones.  Además, el gran incentivo empresarial también ayuda a implementar estas tecnologías rápidamente. Además de gestionar un gran volumen de llamadas de asistencia al cliente, Alibaba envía mil millones de paquetes al día. Transferir ciertas tareas a la IA ayuda a aliviar la carga de los empleados humanos y mantiene el negocio funcionando sin problemas.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Este chip de IA gigante ayudará a crear fármacos contra el cáncer

    La 'start-up' Cerebras ha desarrollado un chip de gran tamaño que reduce el tiempo de entrenamiento de los algoritmos de aprendizaje profundo de semanas a horas. Ahora, un laboratorio estadounidense lo ha probado con el objetivo de predecir cómo un tumor responde a ciertos medicamentos 

  2. Esta IA ha leído a Shakespeare para saber qué parte de una obra escribió

    Numerosos historiadores han intentado descubrir qué escenas de 'Enrique VIII' fueron escritas por el dramaturgo británico y cuáles por otro autor, John Fletcher. Ahora, un algoritmo de aprendizaje automático ha analizado el estilo de ambos para averiguar qué líneas elaboró cada uno 

  3. Cómo acabar con los algoritmos sexistas que conceden créditos

    Goldman Sachs está siendo investigada por discriminación de género tras una reciente polémica con Apple Card, pero la compañía alega que no tiene en cuenta el género para determinar la solvencia crediticia de un cliente. Las investigaciones sugieren que en realidad incluir ese criterio mitigaría el sesgo algorítmico