.

Kyle McDonald / Flickr

Inteligencia Artificial

Estas normas internacionales impedirán que la IA engañe a los médicos

1

Hasta ahora, los sistemas de inteligencia artificial utilizados en ensayos clínicos no se sometían a auditorías independientes ni debían rendir cuentas sobre su diseño, lo que permitía exagerar sus capacidades, pero eso está a punto de acabar gracias a estos nuevos estándares

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 21 Septiembre, 2020

La noticia: Un consorcio internacional de expertos médicos acaba de presentar los primeros estándares oficiales para los ensayos clínicos que utilizan inteligencia artificial (IA). La medida se produce en un momento en el que el bombo sobre la IA médica está en su punto máximo, con afirmaciones infladas y no verificadas sobre la eficacia de ciertas herramientas que amenazan con dañar la confianza de las personas en la IA en general. 

Qué significa: Anunciados en Nature Medicine, en British Medical Journal (BMJ) y en The Lancet, los nuevos estándares amplían dos conjuntos de normas sobre cómo se deberían realizar los ensayos clínicos y cómo se debería informar sobre ellos, las mismas que ya se utilizan en todo el mundo para el desarrollo de fármacos, pruebas de diagnóstico y otros intervenciones médicas. Los investigadores de IA ahora tendrán que describir las habilidades necesarias para usar una herramienta de IA, el entorno en el que se evalúa la IA, los detalles sobre cómo las personas interactúan con la IA, el análisis de casos de error, etcétera.

Por qué es importante: los ensayos controlados aleatorios son la forma más fidedigna de demostrar la efectividad y la seguridad de un tratamiento o de una técnica clínica. Representan la base tanto de la práctica médica como de las normas sanitarias. Pero su fiabilidad depende de que los investigadores respeten las estrictas pautas sobre cómo se deberían llevar a cabo sus ensayos y cómo informar sobre ellos. En los últimos años, se han desarrollado y descrito en revistas médicas muchas nuevas herramientas de IA, pero su eficacia ha sido difícil de comparar y evaluar porque variaba la calidad de los diseños de los ensayos. En marzo, un estudio en BMJ advirtió que una investigación deficiente y afirmaciones exageradas sobre lo buena que era la IA para analizar las imágenes médicas representaban un riesgo para millones de pacientes. 

La exageración máxima: la falta de estándares comunes también ha permitido a las empresas privadas alardear de la efectividad de su IA sin tener que enfrentarse al control aplicado a otros tipos de intervenciones médicas o diagnósticos. Por ejemplo, la empresa de atención médica digital de Reino Unido Babylon Health fue criticada en 2018 por haber afirmado que su chatbot de diagnóstico estaba "a la par con los médicos humanos", basándose en una prueba que, según los críticos, era engañosa. 

Babylon Health no es la única. Los desarrolladores llevan ya algún tiempo afirmando que su IA médica supera o iguala la capacidad humana y la pandemia ha puesto esta tendencia a toda marcha a medida que las empresas compiten para que sus herramientas se destaquen. En la mayoría de los casos, la evaluación de este tipo de IA se realiza internamente y en condiciones favorables. 

Promesas futuras: Esto no quiere decir que la IA no pueda superar a los médicos humanos. De hecho, ya se publicó el mes pasado la primera evaluación independiente de una herramienta de diagnóstico de IA que superó a algunos médicos humanos en detectar el cáncer en las mamografías. El estudio encontró que la herramienta hecha por Lunit AI y utilizada en ciertos hospitales en Corea del Sur tuvo un rendimiento similar a la media de grupo de radiólogos contra los que se probó. Resultó incluso más precisa cuando se combinaba con un médico humano. Al separar lo bueno de lo malo, los nuevos estándares facilitarán este tipo de valoración independiente y, finalmente, conducirán a una IA médica mejor y más fiable.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA demuestra el gran vínculo entre la forma del cuerpo y la inteligencia

    En lugar de crear un robot físico y enseñarle tareas, esta investigación diseñó distintos 'unimales' virtuales con formas extrañas y les pidió que desempeñaran distintas tareas. Los más hábiles siguieron evolucionando hasta alcanzar su configuración más óptima para varias capacidades

  2. Ego4D, el peligroso proyecto de Facebook para que la IA vea como nosotros

    Es el mayor conjunto de datos de vídeo en primera persona de la historia, con 3.025 horas de grabaciones recogidas por 855 personas en nueve países. Al igual que ImageNet, podría revolucionar la inteligencia artificial, pero plantea graves preocupaciones sobre cómo se utilizará la tecnología resultante

  3. Cómo hackear una GAN para destapar las identidades de su entrenamiento

    Dos técnicas diferentes permiten acceder a los datos originales, como las caras, que se usan para entrenar redes generativas antagónicas capaces de crear imágenes ultrarrealistas, pero falsas, conocidas como 'deepfakes'. Ambas investigaciones son una alerta más de los riesgos de privacidad de este tipo de inteligencia artificial