.

Inteligencia Artificial

Un nuevo ciberataque podría disparar el consumo energético de la IA

1

Los esfuerzos del sector por reducir la demanda de energía de la inteligencia artificial ha dado lugar a un modelo más eficiente. Lamentablemente, un equipo acaba de descubrir que este diseño puede ser atacado para aumentar el número de cálculos que necesita hacer y, con ello, su demanda de electricidad

  • por Karen Hao | traducido por Editores de MIT Technology Review en español
  • 10 Mayo, 2021

La noticia: un nuevo tipo de ciberataque podría aumentar el consumo de energía de la inteligencia artificial (IA). De la misma manera que un ataque de denegación de servicio (DoS) busca obstruir una red e inutilizarla, el nuevo tipo de ataque obliga a una red neuronal profunda a mantener ocupados más recursos computacionales de los necesarios para ralentizar su proceso de "pensamiento".

El objetivo: en los últimos años, la creciente preocupación por el enorme consumo energético de los grandes modelos de IA ha llevado a los investigadores a diseñar redes neuronales más eficientes. Una categoría, conocida como arquitecturas multisalida de entrada adaptativa, funciona dividiendo las tareas en función de la dificultad para resolverlas. Luego gasta la cantidad mínima de recursos computacionales necesarios para resolver cada una.

Supongamos que tiene una imagen de un león mirando directamente a la cámara con una iluminación perfecta y una imagen de un león agachado en un paisaje complejo, parcialmente oculto. Una red neuronal tradicional pasaría ambas fotos a través de todas sus capas y gastaría la misma cantidad de potencia de cálculo para etiquetar cada una. Pero una red neuronal multisalida de entrada adaptativa podría pasar la primera foto a través de una sola capa antes de alcanzar el umbral de confianza necesario para etiquetarla correctamente. Esto reduce la huella de carbono del modelo, y también mejora su velocidad y permite implementarlo en dispositivos pequeños como teléfonos inteligentes y altavoces inteligentes.

El ataque: Pero este tipo de red neuronal implica que si cambia la entrada, es decir, la imagen que recibe, puede cambiar la cantidad de cálculo que necesita para resolverlo. Esto abre una vulnerabilidad que los piratas informáticos podrían explotar, tal y como describen los investigadores del Centro de Ciberseguridad de Maryland (EE. UU.) en un nuevo documento presentado recientemente en la Conferencia Internacional sobre Representaciones de Aprendizaje. Al agregar pequeñas cantidades de ruido a las entradas de una red, hicieron que percibiera las entradas como más difíciles y aumentaron los cálculos necesarios.

Cuando asumieron que el atacante tenía toda la información sobre la red neuronal, pudieron maximizar su consumo de energía. Cuando asumieron que el atacante tenía información limitada, aún fueron capaces de ralentizar el procesamiento de la red y aumentar el consumo de energía entre un 20 % y un 80 %. La razón, como descubrieron los investigadores, es que los ataques se transfieren con facilidad a través de diferentes tipos de redes neuronales. Diseñar un ataque para un sistema de clasificación de imágenes permite interrumpir muchos de ellos, afirma el estudiante de doctorado y coautor del artículo Yiğitcan Kaya.

La advertencia: este tipo de ataque todavía es bastante teórico. Las arquitecturas de entrada adaptativa aún no se usan comúnmente en aplicaciones del mundo real. Pero los investigadores creen que esto cambiará rápidamente a causa de las presiones de la industria para implementar redes neuronales más ligeras, como las que se necesitan para los hogares y otros dispositivos de internet de las cosas (IoT). El profesor que asesoró la investigación, Tudor Dumitraş, afirma que se necesita más trabajo para comprender hasta qué punto este tipo de amenaza podría causar daños. Pero, agrega, este documento es un primer paso para crear conciencia, y concluye: "Para mí lo importante es llamar la atención de la gente sobre el hecho de que se trata de un nuevo tipo de amenaza y que se puede llevar a cabo".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Ausencia de datos: el otro gran sesgo racista de la IA

    El estudio más grande jamás realizado sobre los datos hipotecarios de personas reales demuestra que tener un menor historial bancario también afecta para que un algoritmo otorgue una hipoteca. Los expertos piden un cambio de cultura crediticia para recopilar datos que mejoren los sistemas en el futuro

  2. La lucha para recuperar la IA del control de las 'Big Tech'

    Durante años, las grandes tecnológicas han fijado la agenda global de la investigación de IA. Ahora, grupos como Black in AI y Queer in AI están cambiando la dinámica de poder para construir una IA al servicio de las personas

  3. Estos humanos falsos anuncian una nueva era para la IA

    Ya existen empresas que crean datos sintéticos para entrenar modelos de aprendizaje profundo y así evitar las dificultades para obtener datos reales. Por el momento hay pocas pruebas de que este tipo de datos reduzcan los tan criticados sesgos