Pranav Rajpurkar
Facultad de Medicina de Harvard | Ha enseñado a la IA a leer imágenes médicas por sí misma.
Sus sistemas ya pueden rendir al nivel de los expertos, señalando patologías que de otro modo pasarían desapercibidas, y evitando procedimientos médicos innecesarios debidos a falsos positivos. CheXzero, el último modelo de Rajpurkar, podría mejorar aún más su rendimiento aumentando el rango de imágenes que puede analizar.
Rajpurkar se topó con un problema cuando en 2018 presentó un primer modelo que permitía a los ordenadores leer radiografías de tórax: la falta de datos. En ese momento, él y otros investigadores del mismo campo dependían del etiquetado manual por parte de los radiólogos de las imágenes que los sistemas de IA utilizarían para el aprendizaje. Dado que una persona tarda varios minutos en etiquetar una sola imagen, y los sistemas de IA requieren cientos de miles de imágenes para entender lo que están viendo, las investigaciones se estancaron.
El nuevo método de Rajpurkar prescinde por completo de las etiquetas manuales, ya que compara un conjunto de imágenes médicas ―tomadas de bases de datos privadas o públicas― con los informes radiológicos que casi siempre las acompañan. El sistema puede cotejar automáticamente las imágenes con los problemas que los informes identifican por escrito. Esto significa que CheXzero puede utilizar bases de datos masivas para aprender a detectar posibles problemas, sin necesidad de que una persona prepare primero los datos. Esta técnica es conocida como "autosupervisión".
Rajpurkar, profesor adjunto de informática biomédica en la Facultad de Medicina de Harvard (Massachusetts), afirma que su sueño es desarrollar un sistema capaz de procesar los historiales médicos de los pacientes e identificar problemas que los médicos puedan haber pasado por alto.