.

Robótica

Una IA derrota a los mejores médicos en el diagnóstico de la retinopatía diabética

1

Unos investigadores de Google han entrenado a un algoritmo para que aprenda, por sí solo, a descubrir la dolencia, algo que podría ser muy útil en las regiones donde los expertos escasean

  • por Will Knight | traducido por Teresa Woods
  • 02 Diciembre, 2016

Unos investigadores de Google han logrado que un algoritmo de escaneo ocular aprendiera a detectar por sí solo una forma de ceguera. Este avance demuestra el potencial de la inteligencia artificial (IA) de transformar la medicina en un futuro muy inmediato.

El algoritmo puede examinar imágenes retinales y detectar la retinopatía diabética, una dolencia que afecta a casi un tercio de los pacientes de diabetes. Y lo hace con la misma precisión que un oftalmólogo altamente capacitado. Para ello, emplea la misma técnica de aprendizaje automático que Google utiliza para etiquetar millones de imágenes web.

La retinopatía diabética es provocada por daños en los vasos sanguíneos del ojo y resulta en una deterioro gradual de la visión. Si se detecta pronto, puede ser tratada, pero a menudo el paciente no experimenta ningún síntoma durante las primeras etapas, lo que convierte el cribado en algo fundamental. Para diagnosticarla, un experto analiza las imágenes de la retina de un paciente, captadas con un dispositivo especializado, en busca de sangrados y derrames.

Conseguir una tecnología de detección automatizada podría hacer que los diagnósticos sean más eficientes y fiables, y sería especialmente útil en regiones en las que la experiencia requerida escasea. "Una de las cosas más intrigantes de este enfoque es que podría mejorar la objetividad y finalmente la precisión y calidad de los cuidados médicos", afirma el profesor de oftalmología y médico del Instituto Ocular de la Universidad de Salud y Ciencia de Oregón (EEUU) Michael Chiang.

Los éxitos de la IA en el campo médico hasta ahora han sido dispares. Los sistemas que emplean una base de datos de conocimientos para ofrecer consejos han superado el rendimiento de los médicos en algunos entornos, pero su adopción ha sido limitada. Aun así, el poder del aprendizaje automático, especialmente del aprendizaje profundo, podrían aumentar el uso de la IA en el futuro (ver Aprendizaje profundo). Un equipo de Google DeepMind, una subsidiaria de Alphabet centrada totalmente en la IA, está realizando un trabajo similar que entrena ordenadores para procesar tomografías de coherencia óptica en busca de señales de degeneración macular y otras enfermedades oculares en colaboración con investigadores del Hospital Ocular Moorfields en Londres (Reino Unido, ver La IA de Google que venció al Go por fin hace algo útil al analizar dolencias oculares).

Esta investigación de imágenes retinianas, publicada el martes, representa la primera vez que un trabajo de aprendizaje profundo ha salido en la revista Journal of the American Medical Association, según el editor jefe de la revista, Howard Bauchner.

Los autores del trabajo, un equipo compuesto por informáticos de Google e investigadores médicos de Estados Unidos e India, desarrollaron un algoritmo para analizar imágenes retinianas. Pero a diferencia del software de oftalmología existente, no fue programado explícitamente para reconocer características dentro de las imágenes que podrían señalar la enfermedad. Simplemente estudió miles de ojos sanos y enfermos, y averiguó por sí sólo cómo identificar este trastorno.

Los investigadores generaron un conjunto de entrenamiento de 128.000 imágenes retinianas que habían sido clasificadas por al menos tres oftalmólogos. Después de entrenar el algoritmo, los investigadores probaron su rendimiento con 12.000 imágenes y encontraron que igualó o superó el rendimiento de los expertos humanos a la hora de identificar el trastorno y clasificar su gravedad.

Los investigadores de Google colaboraron con científicos de la Fundación para Investigaciones Médicas Aravind (India), donde se está realizando un ensayo clínico con pacientes reales. Este proyecto incluye pacientes que reciben una consulta normal, pero sus imágenes también alimentan el sistema de aprendizaje profundo para fines comparativos. La investigadora de Google y médica Lily Peng, que participó en el proyecto, adelanta que los resultados de este ensayo aún no están listos para publicarse.

El aprendizaje profundo podría aplicarse a muchas áreas distintas de la medicina que dependen del análisis de imágenes, como la radiología y la cardiología. Pero uno de los mayores retos consistirá en proporcionar pruebas convincentes de que los sistemas son fiables. El profesor de la Universidad de Toronto (Canadá) Brendan Frey, que aplica el aprendizaje profundo a datos genómicos, advierte de que los investigadores tendrán que desarrollar sistemas de aprendizaje automático capaces de explicar cómo han llegado a una conclusión determinada.

Peng, de Google, dice que su equipo ya está trabajando en estoy asegura: "Somos conscientes que las explicaciones serán muy importantes".

(Para saber más: Innovadores menores de 35 Chile 2016: José Tomás Arenas, ha diseñado una plataforma de cribado de imágenes y telemedicina para prevenir la ceguera de la diabetes)

Robótica

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Alumnos de una 'start-up' crean una IA que ha superado a la de Google

    A partir de unos sencillos trucos y mediante servidores de Amazon en la nube, el equipo de Fast.ai ha demostrado que no hace falta tener los enormes recursos de un gigante tecnológico para hacer un buen trabajo en inteligencia artificial

  2. Conozca al hombre con cuatro brazos: dos robóticos y dos naturales

    Las extremidades mecánicas de Yamen Saraiji no las controla él sino otra persona en remoto gracias a la realidad virtual. Así es el primer prototipo de Fusión, que aspira a ampliar las capacidades físicas de  en situaciones como las cirugías complicadas e incluso en la exploración espacial

  3. La IA que pasó cien años de soledad aprendiendo a usar una mano

    Dactyl vivió durante un siglo virtual dentro de un simulador hasta que logró controlar la extremidad con una destreza sorprendente mediante aprendizaje reforzado. Aunque en tiempo real solo pasaron unos cuantos días, el enfoque no está listo para satisfacer las demandas de la fabricación robótica