.

Unsplash

Computación

Claves para automatizar las tareas de ciberseguridad de forma fiable

1

Cada vez más empresas incorporan inteligencia artificial en sus servicios de seguridad cibernética. Pero si no la aplican con cuidado, con prisas o simplemente por moda, sus clientes pueden ser aún más vulnerables a los hackers. Le ofrecemos algunos consejos para usar la IA correctamente

  • por Martin Giles | traducido por Mariana Díaz
  • 15 Agosto, 2018

Una de las cosas que más me llamó la atención cuanto visité la exhibición de la masiva conferencia de seguridad cibernética Black Hat celebrada este mes en Las Vegas (EE. UU.) fue el gran número de compañías que se jactan de usar el aprendizaje automático y la inteligencia artificial (IA) para que el mundo sea un lugar más seguro.

Pero algunos expertos temen que estos proveedores de ciberseguridad no estén prestando suficiente atención a los riesgos asociados a la dependencia de estas tecnologías. "Está sucediendo algo preocupante, y en algunos casos, incluso peligroso", advierte Raffael Marty de la firma de seguridad Forcepoint.

El lógico que la industria de la seguridad quiera disponer de algoritmos. A medida que la cantidad de dispositivos conectados a internet aumenta, el mundo se enfrenta a un tsunami de ataques cibernéticos cada vez mayor (ver El "creciente y masivo" riesgo de IoT puede acabar cobrándose vidas humanas). Al mismo tiempo, el sector padece una gran escasez de expertos en ciberseguridad bien formados (ver El estrés laboral en ciberseguridad es el nuevo aliado de los hackers).

Utilizar el aprendizaje automático y la IA para automatizar la detección de ataques y responder a las amenazas puede aliviar la carga de los trabajadores y ayudar a identificar las amenazas de manera más eficiente que otros enfoques basados ​​en software (ver Este robot hacker encuentra y repara vulnerabilidades automáticamente).

Datos corrompidos

Pero Marty y otros ponentes de Black Hat afirman que muchas empresas están lanzando productos basados ​​en aprendizaje automático porque creen que deben hacerlo para complacer a los clientes seducidos por la moda de la IA. Esto podría provocar que las compañías vivan bajo una falsa sensación de seguridad aportada por algoritmos de aprendizaje automático.

Muchos productos que se están implementando se basan en el "aprendizaje supervisado". Esta técnica requiere que las empresas seleccionen y etiqueten los conjuntos de datos para entrenar a los algoritmos. Un ejemplo sería el etiquetado de código considerado malware y el que está limpio de virus.

Marty advierte que uno de los riesgos radica en las prisas por lanzar productos al mercado, lo que puede provocar que las empresas utilicen datos con puntos anómalos que no han eliminado correctamente. Este entrenamiento imperfecto podría provocar que el algoritmo pase por alto algunos ataques. Otro de los riesgos nace de la capacidad de los hackers para acceder a los sistemas de una empresa de seguridad. Si lo logran, pueden corromper los datos cambiando las etiquetas para que algunos ejemplos de malware se etiqueten como código limpio.

Pero para cometer sus fechorías, los ciberdelincuentes ni siquiera necesitan manipular los datos. Les basta con resolver las características del código que usa un modelo para marcar el malware y luego eliminarlo de su propio código malicioso para que el algoritmo no lo detecte.

El problema del algoritmo maestro

En una de las sesiones, los investigadores de Microsoft Holly Stewart y Jugal Parikh señalaron el riesgo de depender de un único algoritmo maestro para controlar un sistema de seguridad al completo. Si ese algoritmo se ve comprometido, no habría ninguna forma de indicar que hay problemas.

Para ayudar a protegerse contra esta situación, el servicio de protección contra amenazas de la compañía, Windows Defender de Microsoft, usa un conjunto diverso de algoritmos con diferentes conjuntos de datos de entrenamiento y características. Así, si un algoritmo es pirateado, los resultados de los demás (siempre y cuando que su integridad no se haya visto comprometida) señalarán la anomalía en el primer modelo.

Y por si fuera poco, Marty también advirtió de la dificultad de entender las conclusiones de los algoritmos especialmente complejos. Este problema de "explicabilidad" puede dificultar la evaluación del problema que provoca las anomalías detectadas por el sistema de seguridad (ver El secreto más oscuro de la inteligencia artificial: ¿por qué hace lo que hace?).

A pesar de todos estos riesgos, la IA y el aprendizaje automático son buenas herramientas de todo nuestro arsenal defensivo cibernético. El mensaje de Marty y el resto de expertos fue que las compañías de seguridad deben esforzarse al máximo en monitorizar y minimizar los riesgos asociados a sus modelos algorítmicos.

Pero aunque sea fácil de decir, cumplir este objetivo es un gran reto debido a que las personas con la combinación ideal de una larga trayectoria en ciberseguridad y en ciencia de datos todavía son tan poco comunes como encontrarse un día de verano en las Vegas en el que calor resulte soportable.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. La computación cuántica en la nube, cada vez más rápida y accesible

    La 'start-up' Rigetti Computing conecta ordenadores cuánticos con computadoras convencionales en la nube, lo que reduce la latencia y optimiza los procesos informáticos. Este tipo de propuestas están acercando mucho más las soluciones cuánticas a los investigadores y cada vez más empresas apuestan por ello

  2. "La innovación en el mundo de 'Internet+' puede matarnos"

    El experto en seguridad Bruce Schneier alerta de los peligros que supone que cada vez haya más dispositivos conectados a internet sin una protección ni regulación adecuadas. En lo que bautiza como "Internet+" engloba todo lo relacionado con el IoT, también las personas, a las que considera incluso en riesgo físico ante posibles ataques cibernéticos​

  3. 'Big data', la fuerza que debilitará al Gran Hermano chino

    Aunque pueda parecer intrusiva, la tecnología basada en datos masivos podría aumentar la conciencia sobre privacidad de los ciudadanos de China, históricamente muy reducida. Además, el 'big data' y la computación en la nube ya ayudan a la caótica gestión del tráfico en el país asiático