.

Nick Little

Móvil

Esta tecnología transforma las señales cerebrales en frases completas

1

Analizando la actividad cerebral de varias personas, un equipo de científicos ha creado un modelo informático del sistema vocal. Su investigación puede ayudar a que las personas con parálisis vuelvan a hablar, pero también abre la puerta a la creación de dispositivos que envíen mensajes de texto leyendo nuestra mente

  • por Antonio Regalado | traducido por Ana Milutinovic
  • 06 Mayo, 2019

Usted no tiene que pensarlo: cada vez que habla, su cerebro envía señales a sus labios, lengua, mandíbula y laringe, que trabajan juntos para producir los sonidos deseados.

Ahora, científicos de San Francisco (EE. UU.) aseguran que han captado estas señales cerebrales para crear un dispositivo capaz de decir frases completas, como "No laves los platos sucios de Charlie" y "El equipo crítico necesita un mantenimiento adecuado".

Esta investigación es un paso hacia un sistema que podría ayudar a hablar a las personas con parálisis severa, y, tal vez algún día, hacia dispositivos de consumo que permitan a cualquier persona enviar un mensaje de texto directamente con su cerebro.

Un equipo liderado por el neurocirujano de la Universidad de California en San Francisco (UCSF, EE.UU.) Edward Chang desarrolló el estudio basándose en los cerebros de cinco personas con epilepsia, que ya se habían sometido a una cirugía cerebral, mientras pronunciaban una lista de 100 frases.

Cuando el equipo de Chang posteriormente usó estas señales para crear un modelo informático del sistema vocal humano, se generó un lenguaje sintetizado que era casi inteligible.

Una muestra del lenguaje generado por la decodificación de las señales cerebrales de un paciente

Este esfuerzo no se basa en pensamientos abstractos, sino que en su lugar identifica la activación de los nervios cuando se pide a nuestros órganos vocales que se muevan. Anteriormente, los investigadores habían utilizado las señales motoras de otras partes del cerebro para controlar los brazos robóticos.

"Estamos descubriendo las partes del cerebro que controlan estos movimientos: estamos intentando descifrar los movimientos, en vez directamente el lenguaje", explica Chang.

En el experimento de Chang, las señales se registraron utilizando mallas flexibles de electrodos llamadas matriz de electrocorticografía (ECoG) que se encuentra sobre la superficie del cerebro.

Para probar la posibilidad de usar las señales para recrear lo que los pacientes habían dicho, los investigadores presentaron los resultados sintetizados a las personas que trabajan en Mechanical Turk, una página web del crowdsourcing, que intentó transcribirlos utilizando un conjunto de posibles palabras. Esos oyentes podían entender, de media, entre el 50 y el 70 % de las palabras.

"Este es probablemente el mejor trabajo que se está haciendo en BCI [interfaces cerebro-máquina] en este momento", opina el investigador de estas tecnologías en la Universidad de Pittsburgh (EE.UU.), Andrew Schwartz. Él apunta que, si los investigadores hubieran puesto sondas dentro del tejido cerebral y no solo alrededor del cerebro, la precisión hubiera sido mucho mayor.

Los métodos anteriores han tratado de reconstruir palabras o sonidos de palabras a partir de las señales cerebrales. En enero de este año, por ejemplo, los investigadores de la Universidad de Columbia (EE.UU.) midieron las señales en la parte auditiva del cerebro cuando los sujetos escuchaban a otra persona decir los números del 0 al 9. Luego pudieron determinar qué número se había escuchado.

Las interfaces cerebro-máquina todavía no son lo suficientemente avanzadas ni lo suficientemente simples para ayudar a las personas con parálisis, aunque ese es el objetivo de los científicos.

El año pasado, otro investigador de la UCSF comenzó a reclutar personas con esclerosis lateral amiotrófica (ELA), también conocida como la enfermedad de Lou Gehrig, para que recibieran implantes de ECoG. Ese estudio intentará sintetizar el habla, según una descripción de la prueba, y también pedirá a los pacientes que controlen un exoesqueleto sosteniéndolo en sus brazos.

Chang afirma que su propio sistema no se está probando en pacientes. Y no está claro si funcionaría para las personas que no pueden mover la boca. El equipo de UCSF explica que su planteamiento no funcionó tan bien cuando pidieron a los que hablaban que pronunciaran palabras moviendo los labios silenciosamente en lugar de decirlas en alto.  

Algunas compañías de Silicon Valley han afirmado que esperan desarrollar lectores cerebrales comerciales de pensamiento a texto. Entre ellas figura Facebook, que destaca que financia una investigación parecida en UCSF "para demostrar la primera interfaz de voz silenciosa capaz de escribir 100 palabras por minuto", según su portavoz.

Facebook no financió el estudio actual y UCSF declinó describir las investigaciones que está haciendo en representación del gigante. Pero Facebook afirma que ver este sistema implantado es un primer paso hacia el tipo de dispositivo de consumo que desea crear.

"Este objetivo está bien alineado con la misión de UCSF de desarrollar una prótesis de comunicaciones implantable para las personas que no pueden hablar, una misión que apoyamos. Facebook no está desarrollando productos que requieran dispositivos implantables, pero la investigación en UCSF puede participar en la investigación de las tecnologías no invasivas", comunicó la compañía.

Chang asegura que "no conoce" ninguna tecnología capaz de hacer lo mismo desde fuera del cerebro, donde las señales se mezclan y se vuelven difíciles de leer.

"El estudio que hicimos incluía a las personas que habían pasado por neurocirugía. Realmente no conocemos ninguna tecnología no invasiva actualmente disponible que pueda permitirnos hacer esto desde fuera de la cabeza", concluye. "Créanme, si existiera, tendría muchísimas aplicaciones médicas".

Móvil

Qué significa estar constantemente contectados unos a otros y disponer de inmensas cantidades de información al instante.

  1. Dígame qué compra en el súper y le diré su riesgo de sufrir diabetes

    Los hábitos alimenticios son muy difíciles de controlar. Así que un equipo ha analizado las cifras de ventas de la mayor cadena de alimentación de Londres y ha logrado vincular los patrones dietéticos de la gente con las tasas locales de presión arterial alta, colesterol alto y azúcar en la sangre

  2. Translatotron, el nuevo traductor de Google que imita la voz y el tono

    El sistema se compone de tres inteligencias artificiales capaces de traducir audios de español a inglés manteniendo el habla del emisor y reduciendo la tasa de error. Aunque de momento es una prueba de concepto, pronto podría convertirse en un producto comercial

  3. Cómo aplicar IA a los datos médicos sin arriesgar la privacidad

    La Escuela de Medicina de Stanford ha lanzado un proyecto piloto con un nuevo sistema que podría garantizar la seguridad de la información médica privada cuando se le aplica inteligencia artificial. Si funciona como se espera, podría traer la gran revolución médica que lleva años prometiendo