.

Inteligencia Artificial

La IA de Google que venció al Go por fin hace algo útil al analizar dolencias oculares

1

DeepMind revisará miles de imágenes de escáneres de retina para detectar automáticamente síntomas tempranos de problemas de visión asociados a la diabetes y la degeneración macular

  • por Jamie Condliffe | traducido por Teresa Woods
  • 08 Julio, 2016

Cada semana, el Hospital Ocular Moorfields en Londres (Reino Unido) realiza 3.000 tomografías de coherencia óptica (TCO) para diagnosticar problemas de visión. Las TCO, que emplean luz de dispersión para generar imágenes de alta resolución en 3D de la retina, generan enormes cantidades de datos. Analizarlos es un proceso lento. Entender las imágenes depende de ojos humanos especializados y entrenados para identificar problemas específicos en cada caso, lo que impide que se dedique tiempo a analizar tendencias más amplias, a escala de la población general, que podrían facilitar la detección temprana.

Pero ese es justo el tipo de tarea que puede abordar la inteligencia artificial (IA). Así que tal vez no sorprenda que el brazo de IA de Google, DeepMind, haya decidido unir fuerzas con el hospital para aplicar aprendizaje de máquinas al problema como parte de su programa sanitario. El acuerdo establece que el software de DeepMind estudiará mas de un millón de imágenes oculares, tanto de TCO como de imágenes de la retina más convencionales, para determinar qué sucede dentro del ojo durante las primeras fases de las enfermedades oculares.

El trabajo inicialmente se centrará en identificar cómo diagnosticar automáticamente problemas visuales causados por la diabetes y la degeneración macular asociada a la edad. Los diabéticos tienen un 25% más de probabilidades de sufrir algún tipo de pérdida de visión que las personas no diabéticas, y la degeneración macular representa la causa más común de ceguera en Reino Unido. En ambos casos, la detección temprana puede permitir un tratamiento más eficaz.

Foto: Una imagen de retina. Crédito: Moorfields Eye Hospital NHS Foundation Trust.

Puesto que el proyecto es nuevo y empleará aprendizaje de máquinas para identificar patrones en los datos que pueden no ser fácilmente identificados por ojos humanos, existen pocos detalles sobre cómo funcionará la técnica. DeepMind sí afirma, en cambio, que tiene planes de divisar las señales tempranas de la degeneración visual para proporcionar un tiempo de intervención mayor a los profesionales médicos.

Es el primer proyecto sanitario que emprende DeepMind que se basa únicamente en la investigación. En una colaboración anterior con el Hospital Royal Free de la zona norte de Londres, la organización acordó desarrollar una app para smartphone llamada Streams para monitorizar a los pacientes con enfermedades de riñón. Un informe publicado en New Scientist, sin embargo, sugirió con algo de preocupación que el proyecto ofreció voluntariamente los historiales médicos de 1,6 millones de pacientes a DeepMind.

Los datos del escaneo ocular proporcionado por el Hospital Ocular Moorfields serán anónimos. DeepMind asegura que resultará imposible identificar a un paciente mediante los historiales, y que sus hallazgos "podrán ser utilizados para mejorar los futuros cuidados, [pero] no afectará los cuidados que cualquier paciente reciba actualmente". El incidente del Hospital Royal Free, según parece, puede que haya inspirado a DeepMind para ir con más cuidado.

No es el primer intento por aplicar el aprendizaje profundo a los cuidados médicos. El superordenador Watson de IBM, por ejemplo, actualmente se basa en 600.000 informes médicos y 1,5 millones de historiales médicos de pacientes y ensayos clínicos para ayudar a los médicos a desarrollar mejores planes de tratamiento para los pacientes de cáncer. Mientras tanto, la start-up Babylon, radicada en Reino Unido, está desarrollando software que estudia los síntomas del usuario para sugerir un plan de acción.

Pero en ambos casos, los problemas médicos son mucho más amplios y las soluciones útiles tardarán tiempo en surgir. Dada una tarea tan bien definida, DeepMind debería poder desarrollar una IA que pueda inspeccionar esos 3.000 imágenes semanales para ayudar a los clínicos a divisar las señales de advertencia de las enfermedades oculares antes de que causen estragos. Veamos si funciona.

(Para saber más: Google, New Scientist, La inteligencia artificial se convierte en médico gracias a esta 'app' diagnóstica)

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La nueva IA de Google DeepMind aprende a jugar videojuegos sola

    El nuevo agente de Google DeepMind podría enfrentarse a una variedad de juegos que nunca antes había visto observando a jugadores humanos

  2. Cómo la IA nos acerca al paradigma de robots capaces de moverse por el mundo real

    El aprendizaje por refuerzo puede ayudar a los robots a enfrentarse a nuevas tareas que no han intentado antes

  3. Una ‘spinoff’ de OpenAI crea una IA que permite a robots aprender como los humanos

    Pero ¿puede pasar del laboratorio al almacén?