.

Inteligencia Artificial

DeepMind afirma que su IA es capaz de determinar las causas de enfermedades genéticas

1

Tras resolver el reto de la estructura de las proteínas, el equipo de 'deep learning' de Google se adentra en el genoma humano

  • por Antonio Regalado | traducido por
  • 26 Septiembre, 2023

Google DeepMind afirma que ha entrenado una inteligencia artificial capaz de predecir qué variaciones de ADN en nuestros genomas son susceptibles de causar enfermedades. Estas predicciones podrían acelerar el diagnóstico de trastornos raros y dar pistas para el desarrollo de fármacos.

DeepMind, fundada en Londres (Reino Unido) y adquirida por Google hace 10 años, es conocida por sus programas de inteligencia artificial juegan a  videojuegos y que han ganado complejos juegos de mesa, como el Go. DeepMind entró en la medicina cuando anunció que su programa AlphaFold era capaz de predecir con exactitud la forma de las proteínas, uno de los grandes retos de la biología.

Ahora, la empresa afirma haber perfeccionado ese modelo proteínico para predecir qué errores del ADN humano se pueden ignorar y cuáles pueden causar enfermedades. AlphaMissense, el nuevo software, se describe en un informe publicado el 19 de septiembre por la revista Science.

Como parte de su proyecto, DeepMind afirma que está liberando decenas de millones de estas predicciones, pero la compañía no permite que otros descarguen el modelo, ya que existen riesgos potenciales de bioseguridad en caso de que la técnica se aplique a otras especies.

Aunque no están pensadas para realizar diagnósticos, los médicos ya utilizan predicciones informáticas para localizar las causas genéticas de síndromes raros. En una entrada de blog, DeepMind aseguró que sus resultados son parte de un esfuerzo para descubrir "la causa matriz de la enfermedad", y podría conducir a "un diagnóstico más rápido y el desarrollo de tratamientos que salvan vidas".

El proyecto, de tres años de duración, ha sido dirigido por Jun Cheng y Žiga Avsec, ingenieros de la empresa. DeepMind ha anunciado la publicación de predicciones para 71 millones de posibles variantes. Cada una de ellas se conoce como una mutación sin sentido. Es decir, una sola letra del ADN que, si se altera, cambia la proteína que produce un gen.

"El objetivo es que se introduzca un cambio en una proteína y, en lugar de predecir la forma de la proteína, pueda preguntar: ¿Es dañino para el humano que lo tiene?", explica Stephen Hsu, físico de la Universidad Estatal de Michigan (EE UU) que trabaja en problemas genéticos con técnicas de IA. "No tenemos ni idea de si la mayoría de estos cambios causan enfermedades".

Expertos externos afirman que el anuncio de DeepMind es el último de una serie de llamativas demostraciones, cuyo valor comercial sigue sin estar claro. "DeepMind está siendo DeepMind", afirma Alex Zhavoronkov, fundador de Insilico Medicine, una empresa de IA que desarrolla fármacos. "Es increíble en relaciones públicas y hace un buen trabajo en IA".

Zhavoronkov asegura que la verdadera prueba de fuego de la inteligencia artificial moderna es si puede conducir a nuevas soluciones, algo que todavía no ha sucedido. Ya se están probando algunos fármacos diseñados con IA, y estos esfuerzos por crear nuevas proteínas útiles se han convertido en un sector candente, según los inversores. La empresa Generate Biomedicines acaba de recaudar 273 millones de dólares (256,6 millones de euros) para crear anticuerpos. Un equipo de antiguos ingenieros de Meta puso en marcha EvolutionaryScale, que considera que la IA puede dar con "células programables que busquen y destruyan el cáncer", según recoge Forbes.

Mejores modelos

Sin embargo, el nuevo esfuerzo de DeepMind tiene menos que ver con los fármacos y más con la forma en que los médicos diagnostican las enfermedades raras. En especial, en pacientes con síntomas extraños, como un recién nacido con una erupción que no desaparece o un adulto que, de repente, se siente más débil.

Con el auge de la secuenciación genética, los médicos pueden descifrar el genoma de las personas y buscar posibles causas en los datos de ADN. A veces, la causa está clara, como la mutación que provoca la fibrosis quística. Pero en el 25% de los casos en los que se realiza una secuenciación genética exhaustiva, los científicos encuentran un cambio sospechoso en el ADN cuyos efectos no se comprenden del todo, afirma Heidi Rehm, directora del laboratorio clínico del Instituto Broad, en Cambridge (Massachusetts).

Los científicos denominan a estas extrañas mutaciones como "variantes de significado incierto", y pueden aparecer incluso en genes muy estudiados como el BRCA1, un punto caliente de riesgo de cáncer hereditario. "No hay un solo gen que no las tenga", afirma Rehm.

DeepMind afirma que AlphaMissense podría ayudar en la búsqueda de respuestas, al utilizar la IA para predecir qué cambios en el ADN son benignos y cuáles son "con toda probabilidad, patógenos". El modelo se une a programas lanzados anteriormente, como PrimateAI, que hacen predicciones similares.

"Ya se ha trabajado mucho en este campo y, en general, la calidad de estos predictoresha mejorado mucho", afirma Rehm. Sin embargo, la experta también asegura que las predicciones informáticas solo son "una prueba", que por sí sola no puede convencerla de que un cambio en el ADN está enfermando a alguien.

Los expertos no declaran una mutación como patógena hasta que no disponen de datos reales de pacientes, pruebas de patrones de herencia en familias y pruebas de laboratorio. Una información que luego se comparte a través de webs públicas de variantes, como ClinVar.

"Los modelos están mejorando, pero ninguno es perfecto, y todavía no te llevan a patogénico o no", afirma Rehm, quien estaba "decepcionada" porque DeepMind parecía exagerar la certeza médica de sus predicciones al describir las variantes como benignas o patógenas.

Unos ajustes precisos

DeepMind afirma que el nuevo modelo se basa en su predecesor AlphaFold, un modelo de predicción de las formas de las proteínas. Aunque AlphaMissense hace algo muy diferente, según afirma Pushmeet Kohli, vicepresidente de Investigación de DeepMind. El software de alguna manera está "aprovechando las intuiciones que adquirió" sobre biología a partir de su tarea anterior. Al basarse en AlphaFold, el nuevo modelo requiere menos tiempo de ejecución y, por tanto, menos energía que si se hubiera construido desde cero.

En términos técnicos, el modelo se preentrena, pero luego se adapta a una nueva tarea en un paso adicional denominado ajuste preciso. Por eso, Patrick Malone, médico y biólogo de KdT Ventures, considera que AlphaMissense es "un ejemplo de uno de los avances metodológicos recientes más importantes en IA".

"El objetivo es que la IA afinada sea capaz de aprovechar el aprendizaje previo", explica Malone. "El marco de preentrenamiento es útil en biología computacional, donde a menudo estamos limitados por el acceso a datos a una escala suficiente".

Riesgos de bioseguridad​

DeepMind afirma que ha proporcionado acceso gratuito a todas sus predicciones para los genes humanos, así como a todos los detalles necesarios para replicar el trabajo, incluido el código informático. Sin embargo, no ha liberado todo el modelo para su inmediata descarga y uso por otros debido a lo que llama un riesgo de bioseguridad si se aplicara para analizar los genes de especies distintas de los seres humanos.

"Como parte de nuestro compromiso de divulgar los avances de nuestra investigación de forma segura y responsable, no compartiremos las ponderaciones de los modelos para evitar su uso en aplicaciones potencialmente inseguras", escribieron los autores del artículo en letra pequeña.

No está claro cuáles son esas aplicaciones inseguras, ni qué especies no humanas tienen en mente los investigadores. DeepMind no los detalló, pero los riesgos podrían incluir el uso de una IA para diseñar bacterias más peligrosas o un arma biológica.

No obstante, al menos un experto externo entrevistado, que pidió el anonimato porque Google invierte en empresas que él mismo ha creado, calificó las restricciones como un esfuerzo transparente para impedir que otros desplieguen el modelo para sus propios usos.

DeepMind negó que estuviera limitando el modelo por razones distintas a la seguridad. El trabajo fue evaluado tanto por el Google DeepMind Institute, que estudia la IA responsable, como por un "experto externo en bioseguridad", aseguró un portavoz de DeepMind.

La restricción sobre el modelo "limita realizar predicciones sobre secuencias de proteínas no humanas", explicó DeepMind en un comunicado. "No liberar las ponderaciones evita que otros descarguen el modelo y lo usen en especies no humanas. Por lo tanto, reduce la probabilidad de un mal uso por parte de actores con malas intenciones".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Meta crea un sistema para marcar los audios generados por IA

    La herramienta, llamada AudioSeal, podría ayudar a atajar el creciente uso de herramientas de clonación de voz para estafas y desinformación

    Persona añadiendo marca de agua a un audio
  2. ¿Por qué alucina la IA?

    La tendencia a inventar cosas frena la adopción de los 'chatbots', pero eso es justo lo que hacen

    Imagen de robot en negro y verde
  3. Cómo evitar que Meta use tus datos para entrenar su IA

    Tus 'posts' son una mina de oro, sobre todo ahora que las empresas empiezan a quedarse sin datos para entrenar la IA

    Ojo con una señal de prohibido en la pupila