.

Ariel Davis

Móvil

Cómo aplicar IA a los datos médicos sin arriesgar la privacidad

1

La Escuela de Medicina de Stanford ha lanzado un proyecto piloto con un nuevo sistema que podría garantizar la seguridad de la información médica privada cuando se le aplica inteligencia artificial. Si funciona como se espera, podría traer la gran revolución médica que lleva años prometiendo

  • por Will Knight | traducido por Ana Milutinovic
  • 21 Mayo, 2019

Aunque la inteligencia artificial (IA) tiene un enorme potencial para transformar la atención médica, existe un gran problema: la privacidad.

Los algoritmos de IA necesitarán grandes cantidades de datos médicos para poder entrenarse antes de que el aprendizaje automático pueda ofrecer nuevas y poderosas formas de detectar y comprender la causa de una enfermedad. Eso incluye imágenes médicas, información genómica e informes médicos electrónicos, un tipo de información que suele ser muy sensible.

Por eso, hay muchos investigadores trabajando en formas de permitir que la IA aprenda de grandes cantidades de datos médicos y que al tiempo impidan su filtración. Un prometedor enfoque acaba de lanzar su primer gran ensayo en la Escuela de Medicina de Stanford en California (EE. UU.). Sus pacientes pueden optar por aportar sus datos médicos a un sistema de inteligencia artificial para que aprenda a diagnosticar enfermedades oculares sin tener que acceder a los datos personales.

Para hacerlo, deben enviar los resultados de sus pruebas oftalmológicas y los datos de sus informes médicos a través de una aplicación. La información se utiliza para entrenar un modelo de aprendizaje automático para identificar en imágenes los signos de enfermedad ocular (como la retinopatía diabética y el glaucoma). Pero los datos están protegidos por la tecnología desarrollada por Oasis Labs, una start-up emergente de Universidad de California en Berkeley (UC Berkeley, en EE. UU.), que garantiza que la información no puede ser filtrada ni mal utilizada. La start-up recibió el permiso de la Escuela de Medicina de Stanford para iniciar el ensayo la semana pasada, en colaboración con los investigadores de UC Berkeley, Stanford y ETH Zúrich (Suiza).

La sensibilidad de los datos privados de los pacientes es un problema inminente. Los algoritmos de inteligencia artificial entrenados con datos de diferentes hospitales podrían diagnosticar y prevenir enfermedades y prolongar vidas. Pero en muchos países, los historiales médicos no se pueden compartir fácilmente ni introducirlos en estos algoritmos, por razones legales. La investigación sobre el uso de la IA para detectar enfermedades en imágenes o datos médicos generalmente implica conjuntos de datos relativamente pequeños, algo que limita mucho la promesa de la tecnología.

La cofundadora de Oasis Labs y profesora en UC Berkeley, Dawn Song, detalla: "Es muy importante poder trabajar con datos clínicos reales. Porque podemos demostrar que esto funciona".

Oasis almacena los datos privados de los pacientes en un chip seguro, diseñado en colaboración con otros investigadores de Berkeley. Los datos permanecen dentro de la nube de Oasis; Los usuarios externos pueden ejecutar algoritmos en los datos y recibir los resultados, sin sacarlos del sistema. Un contrato inteligente (un software que se ejecuta sobre una cadena de bloques) se activa cuando se recibe una solicitud para acceder a los datos. Este software registra cómo se utilizaron los datos y también controla que el cálculo de aprendizaje automático se realice correctamente.

Song continúa: "Esto demostrará que podemos ayudar a los pacientes a aportar datos mientras protegemos su privacidad". Y afirma que el modelo de enfermedad ocular será más preciso a medida que se recopilen más datos.

Dicha tecnología también podría facilitar la aplicación de IA a otros tipos de información confidencial, como los registros financieros, los hábitos de compra y los datos de navegación por internet. Song afirma que el plan es expandir las aplicaciones médicas antes de buscar otros dominios.

"La idea de trabajar con los datos mientras se mantienen en secreto es increíblemente poderosa", opina el especialista en aprendizaje automático y seguridad en la Universidad de Virginia (EE.UU.) David Evans. Si se aplica en hospitales y centros con pacientes, por ejemplo, el aprendizaje automático podría descubrir formas completamente nuevas de relacionar la enfermedad con la genética, con los resultados de las pruebas y con otros datos del paciente.

Evans añade: "Nos encantaría que un investigador médico pudiera conocer los registros médicos de todos. Podríamos hacer un análisis y comprobar si un medicamento está funcionando o no. Pero a día de hoy no podemos hacerlo".

A pesar del potencial que Oasis representa, Evans es cauteloso. El almacenamiento de datos en un hardware seguro crea un posible punto de falla, señala. Si la compañía que fabrica el hardware resulta ser vulnerable, entonces todos los datos que se manejen de esta manera también lo serán. Y las cadenas de bloques están muy poco experimentadas, añade. Sobre el enfoque de Oasis, el experto concluye: "Hay un montón de tecnologías diferentes que se juntan. Algunas están maduras y otras son vanguardistas y pendientes de nuevos desafíos".

Móvil

Qué significa estar constantemente contectados unos a otros y disponer de inmensas cantidades de información al instante.

  1. Barcelona revoluciona la navegación para invidentes con estas pegatinas

    Gracias a estos cuadrados de colores, las personas con discapacidad visual ahora pueden usar el transporte público de la urbe española con mucha más facilidad. El sistema, desarrollado por la Universidad de Alicante, destaca por usar códigos QR en lugar de GPS que no sirve en interiores

  2. Dai, la 'stablecoin' amada por todos no es tan estable como prometía

    Su estrategia para mantenerse estable frente al dólar estadounidense todavía no ofrece suficientes garantías. Además, la "criptoemperatriz" de la Comisión de Bolsa y Valores de EE. UU., Valerie Szczepanik, afirma que esta criptomoneda tal vez debería ser regulada como un valor

  3. Por qué Facebook lleva razón al no borrar el vídeo manipulado de Pelosi

    No se trata de un 'deepfake' en el que la política aparezca diciendo algo que no ha dicho, sino de una sátira. Si la red social lo elimina, podría sentar un peligroso precedente en torno a la censura. Los expertos afirman que la mejor estrategia contra la desinformación es la alfabetización mediática