.

Inteligencia Artificial

Un nuevo ciberataque podría disparar el consumo energético de la IA

1

Los esfuerzos del sector por reducir la demanda de energía de la inteligencia artificial ha dado lugar a un modelo más eficiente. Lamentablemente, un equipo acaba de descubrir que este diseño puede ser atacado para aumentar el número de cálculos que necesita hacer y, con ello, su demanda de electricidad

  • por Karen Hao | traducido por Editores de MIT Technology Review en español
  • 10 Mayo, 2021

La noticia: un nuevo tipo de ciberataque podría aumentar el consumo de energía de la inteligencia artificial (IA). De la misma manera que un ataque de denegación de servicio (DoS) busca obstruir una red e inutilizarla, el nuevo tipo de ataque obliga a una red neuronal profunda a mantener ocupados más recursos computacionales de los necesarios para ralentizar su proceso de "pensamiento".

El objetivo: en los últimos años, la creciente preocupación por el enorme consumo energético de los grandes modelos de IA ha llevado a los investigadores a diseñar redes neuronales más eficientes. Una categoría, conocida como arquitecturas multisalida de entrada adaptativa, funciona dividiendo las tareas en función de la dificultad para resolverlas. Luego gasta la cantidad mínima de recursos computacionales necesarios para resolver cada una.

Supongamos que tiene una imagen de un león mirando directamente a la cámara con una iluminación perfecta y una imagen de un león agachado en un paisaje complejo, parcialmente oculto. Una red neuronal tradicional pasaría ambas fotos a través de todas sus capas y gastaría la misma cantidad de potencia de cálculo para etiquetar cada una. Pero una red neuronal multisalida de entrada adaptativa podría pasar la primera foto a través de una sola capa antes de alcanzar el umbral de confianza necesario para etiquetarla correctamente. Esto reduce la huella de carbono del modelo, y también mejora su velocidad y permite implementarlo en dispositivos pequeños como teléfonos inteligentes y altavoces inteligentes.

El ataque: Pero este tipo de red neuronal implica que si cambia la entrada, es decir, la imagen que recibe, puede cambiar la cantidad de cálculo que necesita para resolverlo. Esto abre una vulnerabilidad que los piratas informáticos podrían explotar, tal y como describen los investigadores del Centro de Ciberseguridad de Maryland (EE. UU.) en un nuevo documento presentado recientemente en la Conferencia Internacional sobre Representaciones de Aprendizaje. Al agregar pequeñas cantidades de ruido a las entradas de una red, hicieron que percibiera las entradas como más difíciles y aumentaron los cálculos necesarios.

Cuando asumieron que el atacante tenía toda la información sobre la red neuronal, pudieron maximizar su consumo de energía. Cuando asumieron que el atacante tenía información limitada, aún fueron capaces de ralentizar el procesamiento de la red y aumentar el consumo de energía entre un 20 % y un 80 %. La razón, como descubrieron los investigadores, es que los ataques se transfieren con facilidad a través de diferentes tipos de redes neuronales. Diseñar un ataque para un sistema de clasificación de imágenes permite interrumpir muchos de ellos, afirma el estudiante de doctorado y coautor del artículo Yiğitcan Kaya.

La advertencia: este tipo de ataque todavía es bastante teórico. Las arquitecturas de entrada adaptativa aún no se usan comúnmente en aplicaciones del mundo real. Pero los investigadores creen que esto cambiará rápidamente a causa de las presiones de la industria para implementar redes neuronales más ligeras, como las que se necesitan para los hogares y otros dispositivos de internet de las cosas (IoT). El profesor que asesoró la investigación, Tudor Dumitraş, afirma que se necesita más trabajo para comprender hasta qué punto este tipo de amenaza podría causar daños. Pero, agrega, este documento es un primer paso para crear conciencia, y concluye: "Para mí lo importante es llamar la atención de la gente sobre el hecho de que se trata de un nuevo tipo de amenaza y que se puede llevar a cabo".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. La horrible 'app' de 'deepfakes' que coloca a mujeres en videos porno

    Se trata de algo sobre lo que los expertos llevan tiempo advirtiendo y eleva este tipo de abusos al siguiente nivel. Las consecuencias psicológicas y sociales de esta especie de violación pueden alargarse durante años y también afectan a los hombres en países donde se castiga la homosexualidad 

  2. Los datos biométricos de los afganos, arma para la venganza talibana

    Con decenas de datos por persona, desde escáneres de iris y vínculos familiares hasta su fruta favorita, el sistema destinado a reducir el fraude en las fuerzas de seguridad del país pondría en peligro a los ciudadanos registrados

  3. El perturbador aumento del uso del reconocimiento facial de EE. UU.

    A falta de regulación federal, un informe revela que las agencias nacionales del país lo utilizan cada vez más, en muchas ocasiones sin una supervisión adecuada, y la tendencia no para de aumentar. Además, muchas de ellas utilizan el controvertido sistema de Clearview AI