.

Robótica

Una IA derrota a los mejores médicos en el diagnóstico de la retinopatía diabética

1

Unos investigadores de Google han entrenado a un algoritmo para que aprenda, por sí solo, a descubrir la dolencia, algo que podría ser muy útil en las regiones donde los expertos escasean

  • por Will Knight | traducido por Teresa Woods
  • 02 Diciembre, 2016

Unos investigadores de Google han logrado que un algoritmo de escaneo ocular aprendiera a detectar por sí solo una forma de ceguera. Este avance demuestra el potencial de la inteligencia artificial (IA) de transformar la medicina en un futuro muy inmediato.

El algoritmo puede examinar imágenes retinales y detectar la retinopatía diabética, una dolencia que afecta a casi un tercio de los pacientes de diabetes. Y lo hace con la misma precisión que un oftalmólogo altamente capacitado. Para ello, emplea la misma técnica de aprendizaje automático que Google utiliza para etiquetar millones de imágenes web.

La retinopatía diabética es provocada por daños en los vasos sanguíneos del ojo y resulta en una deterioro gradual de la visión. Si se detecta pronto, puede ser tratada, pero a menudo el paciente no experimenta ningún síntoma durante las primeras etapas, lo que convierte el cribado en algo fundamental. Para diagnosticarla, un experto analiza las imágenes de la retina de un paciente, captadas con un dispositivo especializado, en busca de sangrados y derrames.

Conseguir una tecnología de detección automatizada podría hacer que los diagnósticos sean más eficientes y fiables, y sería especialmente útil en regiones en las que la experiencia requerida escasea. "Una de las cosas más intrigantes de este enfoque es que podría mejorar la objetividad y finalmente la precisión y calidad de los cuidados médicos", afirma el profesor de oftalmología y médico del Instituto Ocular de la Universidad de Salud y Ciencia de Oregón (EEUU) Michael Chiang.

Los éxitos de la IA en el campo médico hasta ahora han sido dispares. Los sistemas que emplean una base de datos de conocimientos para ofrecer consejos han superado el rendimiento de los médicos en algunos entornos, pero su adopción ha sido limitada. Aun así, el poder del aprendizaje automático, especialmente del aprendizaje profundo, podrían aumentar el uso de la IA en el futuro (ver Aprendizaje profundo). Un equipo de Google DeepMind, una subsidiaria de Alphabet centrada totalmente en la IA, está realizando un trabajo similar que entrena ordenadores para procesar tomografías de coherencia óptica en busca de señales de degeneración macular y otras enfermedades oculares en colaboración con investigadores del Hospital Ocular Moorfields en Londres (Reino Unido, ver La IA de Google que venció al Go por fin hace algo útil al analizar dolencias oculares).

Esta investigación de imágenes retinianas, publicada el martes, representa la primera vez que un trabajo de aprendizaje profundo ha salido en la revista Journal of the American Medical Association, según el editor jefe de la revista, Howard Bauchner.

Los autores del trabajo, un equipo compuesto por informáticos de Google e investigadores médicos de Estados Unidos e India, desarrollaron un algoritmo para analizar imágenes retinianas. Pero a diferencia del software de oftalmología existente, no fue programado explícitamente para reconocer características dentro de las imágenes que podrían señalar la enfermedad. Simplemente estudió miles de ojos sanos y enfermos, y averiguó por sí sólo cómo identificar este trastorno.

Los investigadores generaron un conjunto de entrenamiento de 128.000 imágenes retinianas que habían sido clasificadas por al menos tres oftalmólogos. Después de entrenar el algoritmo, los investigadores probaron su rendimiento con 12.000 imágenes y encontraron que igualó o superó el rendimiento de los expertos humanos a la hora de identificar el trastorno y clasificar su gravedad.

Los investigadores de Google colaboraron con científicos de la Fundación para Investigaciones Médicas Aravind (India), donde se está realizando un ensayo clínico con pacientes reales. Este proyecto incluye pacientes que reciben una consulta normal, pero sus imágenes también alimentan el sistema de aprendizaje profundo para fines comparativos. La investigadora de Google y médica Lily Peng, que participó en el proyecto, adelanta que los resultados de este ensayo aún no están listos para publicarse.

El aprendizaje profundo podría aplicarse a muchas áreas distintas de la medicina que dependen del análisis de imágenes, como la radiología y la cardiología. Pero uno de los mayores retos consistirá en proporcionar pruebas convincentes de que los sistemas son fiables. El profesor de la Universidad de Toronto (Canadá) Brendan Frey, que aplica el aprendizaje profundo a datos genómicos, advierte de que los investigadores tendrán que desarrollar sistemas de aprendizaje automático capaces de explicar cómo han llegado a una conclusión determinada.

Peng, de Google, dice que su equipo ya está trabajando en estoy asegura: "Somos conscientes que las explicaciones serán muy importantes".

(Para saber más: Innovadores menores de 35 Chile 2016: José Tomás Arenas, ha diseñado una plataforma de cribado de imágenes y telemedicina para prevenir la ceguera de la diabetes)

Robótica

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. "Estamos muy lejos de conseguir que la inteligencia artificial comprenda cómo es el mundo"

    El responsable de Magenta, el proyecto de IA de Google centrado en el arte, Douglas Eck, cree que sus esfuerzos ya han conseguido una especie de creatividad artificial que podría aportar mucho al sector, aunque todavía hay muchísimo trabajo por delante

  2. INFOGRAFÍA: La robótica pasa del 'hierro' a la inteligencia artificial

    La llegada de la automatización puede no tener tanto que ver con robots humanoides que comparten nuestras casas sino con algoritmos de inteligencia artificial capaces de tomar todo tipo de decisiones

  3. Drones y robots inteligentes amenazan con destruir los trabajos de inspección industrial

    Estas máquinas ya son capaces de hacer el seguimiento y el control de infraestructuras como tuberías, líneas eléctricas y sistemas de transporte, y lo hacen mejor y más barato que los humanos. Una refinería podría ahorarse 830.000 euros al año en inspecciones