.

Kyle McDonald / Flickr

Inteligencia Artificial

Estas normas internacionales impedirán que la IA engañe a los médicos

1

Hasta ahora, los sistemas de inteligencia artificial utilizados en ensayos clínicos no se sometían a auditorías independientes ni debían rendir cuentas sobre su diseño, lo que permitía exagerar sus capacidades, pero eso está a punto de acabar gracias a estos nuevos estándares

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 21 Septiembre, 2020

La noticia: Un consorcio internacional de expertos médicos acaba de presentar los primeros estándares oficiales para los ensayos clínicos que utilizan inteligencia artificial (IA). La medida se produce en un momento en el que el bombo sobre la IA médica está en su punto máximo, con afirmaciones infladas y no verificadas sobre la eficacia de ciertas herramientas que amenazan con dañar la confianza de las personas en la IA en general. 

Qué significa: Anunciados en Nature Medicine, en British Medical Journal (BMJ) y en The Lancet, los nuevos estándares amplían dos conjuntos de normas sobre cómo se deberían realizar los ensayos clínicos y cómo se debería informar sobre ellos, las mismas que ya se utilizan en todo el mundo para el desarrollo de fármacos, pruebas de diagnóstico y otros intervenciones médicas. Los investigadores de IA ahora tendrán que describir las habilidades necesarias para usar una herramienta de IA, el entorno en el que se evalúa la IA, los detalles sobre cómo las personas interactúan con la IA, el análisis de casos de error, etcétera.

Por qué es importante: los ensayos controlados aleatorios son la forma más fidedigna de demostrar la efectividad y la seguridad de un tratamiento o de una técnica clínica. Representan la base tanto de la práctica médica como de las normas sanitarias. Pero su fiabilidad depende de que los investigadores respeten las estrictas pautas sobre cómo se deberían llevar a cabo sus ensayos y cómo informar sobre ellos. En los últimos años, se han desarrollado y descrito en revistas médicas muchas nuevas herramientas de IA, pero su eficacia ha sido difícil de comparar y evaluar porque variaba la calidad de los diseños de los ensayos. En marzo, un estudio en BMJ advirtió que una investigación deficiente y afirmaciones exageradas sobre lo buena que era la IA para analizar las imágenes médicas representaban un riesgo para millones de pacientes. 

La exageración máxima: la falta de estándares comunes también ha permitido a las empresas privadas alardear de la efectividad de su IA sin tener que enfrentarse al control aplicado a otros tipos de intervenciones médicas o diagnósticos. Por ejemplo, la empresa de atención médica digital de Reino Unido Babylon Health fue criticada en 2018 por haber afirmado que su chatbot de diagnóstico estaba "a la par con los médicos humanos", basándose en una prueba que, según los críticos, era engañosa. 

Babylon Health no es la única. Los desarrolladores llevan ya algún tiempo afirmando que su IA médica supera o iguala la capacidad humana y la pandemia ha puesto esta tendencia a toda marcha a medida que las empresas compiten para que sus herramientas se destaquen. En la mayoría de los casos, la evaluación de este tipo de IA se realiza internamente y en condiciones favorables. 

Promesas futuras: Esto no quiere decir que la IA no pueda superar a los médicos humanos. De hecho, ya se publicó el mes pasado la primera evaluación independiente de una herramienta de diagnóstico de IA que superó a algunos médicos humanos en detectar el cáncer en las mamografías. El estudio encontró que la herramienta hecha por Lunit AI y utilizada en ciertos hospitales en Corea del Sur tuvo un rendimiento similar a la media de grupo de radiólogos contra los que se probó. Resultó incluso más precisa cuando se combinaba con un médico humano. Al separar lo bueno de lo malo, los nuevos estándares facilitarán este tipo de valoración independiente y, finalmente, conducirán a una IA médica mejor y más fiable.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El polígrafo de la IA: esta herramienta ayuda a detectar patrañas en chatbots

    En muchas situaciones de alto riesgo, no merece la pena arriesgarse con grandes modelos lingüísticos. Saber qué resultados hay que desechar puede arreglarlo. 

    Un toro mirando al frente con una máquina de polígrafo alrededor del cuello. Detrás, espirales de texto superpuestas.
  2. La ley de la IA de la UE en cuatro claves

    El trabajo duro empieza ahora.

    Un candado azul con las estrellas amarillas de la UE de fondo
  3. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana