.

Callista Images / Getty

Inteligencia Artificial

Esta técnica entrena a la IA para que no se deje engañar

1

Los sistemas de reconocimiento y reconstrucción de imágenes continúan siendo vulnerables a ataques destinados a confundirlos. Un nuevo método ayuda a que el aprendizaje profundo falle menos enfrentando dos redes neuronales: una burla a otra, que mejora a su vez para evitar el engaño

  • por Karen Hao | traducido por Ana Milutinovic
  • 12 Agosto, 2020

El contexto: uno de los mayores defectos aún no resueltos del aprendizaje profundo consiste en su vulnerabilidad a los llamados ataques antagónicos. Cuando estas perturbaciones, aparentemente aleatorias o indetectables para el ojo humano, se introducen en un sistema de inteligencia artificial (IA), pueden provocar que las cosas salgan bastante mal. Unos adhesivos colocados estratégicamente en una señal de stop, por ejemplo, pueden engañar a un coche autónomo para que detecte una señal de límite de velocidad de 70 kilómetros por hora, mientras que otros adhesivos en una carretera pueden confundir a un Tesla para que se desvíe por el carril equivocado.

Seguridad crítica: la mayoría de las investigaciones de redes antagónicas se centran en los sistemas de reconocimiento de imágenes, pero los sistemas de reconstrucción de imágenes basados ​​en el aprendizaje profundo también son vulnerables. Esto es un problema especialmente grave para la atención sanitaria, donde estos sistemas se suelen usar para reconstruir imágenes médicas como TAC o resonancias magnéticas a partir de los datos de rayos X. Un ataque antagónico dirigido podría provocar que dicho sistema reconstruya un tumor en una imagen donde no lo hay.

La investigación: una de las innovadoras menores de 35 años de MIT Technology Review de este año, Bo Li , y sus colegas de la Universidad de Illinois en Urbana-Champaign (EE. UU.)  proponen ahora un nuevo método para entrenar a estos sistemas de aprendizaje profundo con el fin de que fallen menos y, por lo tanto, para que sean más confiables en escenarios críticos para la seguridad. Para ello, enfrentan a la red neuronal que se ocupa de la reconstrucción de la imagen con otra red neuronal responsable de generar ejemplos antagónicos, de forma similar a los algoritmos de las redes generativas antagónicas (GAN por sus siglas en inglés). A través de rondas iterativas, la red antagónica intenta engañar a la red de reconstrucción para que genere algo que no forma parte de los datos originales o de la verdad fundamental. La red de reconstrucción mejora continuamente para evitar ser engañada, por lo que resulta más seguro implementarla en el mundo real.

Los resultados: cuando los investigadores probaron su red neuronal entrenada de esta forma antagónica con dos populares conjuntos de datos de imágenes, fueron capaz de reconstruir la verdad fundamental mejor que otras redes neuronales que habían sido "entrenadas contra los fallos" con diferentes métodos. Sin embargo, los resultados aún no son perfectos, lo que demuestra que este método todavía necesita perfeccionarse más. Este trabajo se presentará la próxima semana en la Conferencia Internacional sobre Aprendizaje Automático.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Cómo revolucionar el urbanismo con inteligencia artificial y 'Minecraft'

    Un concurso utiliza el videojuego de construcción como escenario para que la IA erija ciudades bonitas, coherentes y transitables. Los responsables de planificación urbana están empezando a usar la tecnología con datos del mundo real para entender el impacto del diseño de una ciudad en las personas

  2. "La IA habría detectado mi cáncer dos años antes del diagnóstico"

    La primera ganadora del Premio a la Inteligencia Artificial en Beneficio de la Humanidad, Regina Barzilay, defiende el potencial de la tecnología en medicina y advierte que no podremos aprovecharnos de él si no empezamos a confiar en sus beneficios, algo que el coronavirus ha dejado en evidencia

  3. El mundo empieza a sentir la urgencia de proteger a los niños de la IA

    Los más pequeños son los más vulnerables a las amenazas de los algoritmos, por eso, Unicef y la Academia de Inteligencia Artificial de Pekín (China) han publicado sendas recomendaciones y van a lanzar proyectos piloto para que empresas y gobiernos empiecen a crear protecciones especiales para ellos