.

Kyle McDonald / Flickr

Inteligencia Artificial

Estas normas internacionales impedirán que la IA engañe a los médicos

1

Hasta ahora, los sistemas de inteligencia artificial utilizados en ensayos clínicos no se sometían a auditorías independientes ni debían rendir cuentas sobre su diseño, lo que permitía exagerar sus capacidades, pero eso está a punto de acabar gracias a estos nuevos estándares

  • por Will Douglas Heaven | traducido por Ana Milutinovic
  • 21 Septiembre, 2020

La noticia: Un consorcio internacional de expertos médicos acaba de presentar los primeros estándares oficiales para los ensayos clínicos que utilizan inteligencia artificial (IA). La medida se produce en un momento en el que el bombo sobre la IA médica está en su punto máximo, con afirmaciones infladas y no verificadas sobre la eficacia de ciertas herramientas que amenazan con dañar la confianza de las personas en la IA en general. 

Qué significa: Anunciados en Nature Medicine, en British Medical Journal (BMJ) y en The Lancet, los nuevos estándares amplían dos conjuntos de normas sobre cómo se deberían realizar los ensayos clínicos y cómo se debería informar sobre ellos, las mismas que ya se utilizan en todo el mundo para el desarrollo de fármacos, pruebas de diagnóstico y otros intervenciones médicas. Los investigadores de IA ahora tendrán que describir las habilidades necesarias para usar una herramienta de IA, el entorno en el que se evalúa la IA, los detalles sobre cómo las personas interactúan con la IA, el análisis de casos de error, etcétera.

Por qué es importante: los ensayos controlados aleatorios son la forma más fidedigna de demostrar la efectividad y la seguridad de un tratamiento o de una técnica clínica. Representan la base tanto de la práctica médica como de las normas sanitarias. Pero su fiabilidad depende de que los investigadores respeten las estrictas pautas sobre cómo se deberían llevar a cabo sus ensayos y cómo informar sobre ellos. En los últimos años, se han desarrollado y descrito en revistas médicas muchas nuevas herramientas de IA, pero su eficacia ha sido difícil de comparar y evaluar porque variaba la calidad de los diseños de los ensayos. En marzo, un estudio en BMJ advirtió que una investigación deficiente y afirmaciones exageradas sobre lo buena que era la IA para analizar las imágenes médicas representaban un riesgo para millones de pacientes. 

La exageración máxima: la falta de estándares comunes también ha permitido a las empresas privadas alardear de la efectividad de su IA sin tener que enfrentarse al control aplicado a otros tipos de intervenciones médicas o diagnósticos. Por ejemplo, la empresa de atención médica digital de Reino Unido Babylon Health fue criticada en 2018 por haber afirmado que su chatbot de diagnóstico estaba "a la par con los médicos humanos", basándose en una prueba que, según los críticos, era engañosa. 

Babylon Health no es la única. Los desarrolladores llevan ya algún tiempo afirmando que su IA médica supera o iguala la capacidad humana y la pandemia ha puesto esta tendencia a toda marcha a medida que las empresas compiten para que sus herramientas se destaquen. En la mayoría de los casos, la evaluación de este tipo de IA se realiza internamente y en condiciones favorables. 

Promesas futuras: Esto no quiere decir que la IA no pueda superar a los médicos humanos. De hecho, ya se publicó el mes pasado la primera evaluación independiente de una herramienta de diagnóstico de IA que superó a algunos médicos humanos en detectar el cáncer en las mamografías. El estudio encontró que la herramienta hecha por Lunit AI y utilizada en ciertos hospitales en Corea del Sur tuvo un rendimiento similar a la media de grupo de radiólogos contra los que se probó. Resultó incluso más precisa cuando se combinaba con un médico humano. Al separar lo bueno de lo malo, los nuevos estándares facilitarán este tipo de valoración independiente y, finalmente, conducirán a una IA médica mejor y más fiable.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Es hora de cambiar las leyes que dan ventaja a la IA frente al humano

    En su último libro, 'El robot razonable: la inteligencia artificial y la ley', Ryan Abbott advierte que las políticas fiscales fomentan la automatización, útil o no, porque la mano de obra se grava más que el capital, y defiende una regulación neutra que garantice los ingresos fiscales y la productividad

  2. Una revolucionaria técnica de IA aprende casi sin datos de ejemplo

    El aprendizaje 'less than one-shot', o LO-shot, puede enseñar a un modelo de inteligencia artificial a identificar más tipos de objetos que el número de clases de ejemplos con los que ha sido entrenado. Podría lograr que la IA sea más accesible para empresas e industrias y mejorar la privacidad de los datos

  3. GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

    Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta