.

Unsplash

Computación

Claves para automatizar las tareas de ciberseguridad de forma fiable

1

Cada vez más empresas incorporan inteligencia artificial en sus servicios de seguridad cibernética. Pero si no la aplican con cuidado, con prisas o simplemente por moda, sus clientes pueden ser aún más vulnerables a los hackers. Le ofrecemos algunos consejos para usar la IA correctamente

  • por Martin Giles | traducido por Mariana Díaz
  • 15 Agosto, 2018

Una de las cosas que más me llamó la atención cuanto visité la exhibición de la masiva conferencia de seguridad cibernética Black Hat celebrada este mes en Las Vegas (EE. UU.) fue el gran número de compañías que se jactan de usar el aprendizaje automático y la inteligencia artificial (IA) para que el mundo sea un lugar más seguro.

Pero algunos expertos temen que estos proveedores de ciberseguridad no estén prestando suficiente atención a los riesgos asociados a la dependencia de estas tecnologías. "Está sucediendo algo preocupante, y en algunos casos, incluso peligroso", advierte Raffael Marty de la firma de seguridad Forcepoint.

El lógico que la industria de la seguridad quiera disponer de algoritmos. A medida que la cantidad de dispositivos conectados a internet aumenta, el mundo se enfrenta a un tsunami de ataques cibernéticos cada vez mayor (ver El "creciente y masivo" riesgo de IoT puede acabar cobrándose vidas humanas). Al mismo tiempo, el sector padece una gran escasez de expertos en ciberseguridad bien formados (ver El estrés laboral en ciberseguridad es el nuevo aliado de los hackers).

Utilizar el aprendizaje automático y la IA para automatizar la detección de ataques y responder a las amenazas puede aliviar la carga de los trabajadores y ayudar a identificar las amenazas de manera más eficiente que otros enfoques basados ​​en software (ver Este robot hacker encuentra y repara vulnerabilidades automáticamente).

Datos corrompidos

Pero Marty y otros ponentes de Black Hat afirman que muchas empresas están lanzando productos basados ​​en aprendizaje automático porque creen que deben hacerlo para complacer a los clientes seducidos por la moda de la IA. Esto podría provocar que las compañías vivan bajo una falsa sensación de seguridad aportada por algoritmos de aprendizaje automático.

Muchos productos que se están implementando se basan en el "aprendizaje supervisado". Esta técnica requiere que las empresas seleccionen y etiqueten los conjuntos de datos para entrenar a los algoritmos. Un ejemplo sería el etiquetado de código considerado malware y el que está limpio de virus.

Marty advierte que uno de los riesgos radica en las prisas por lanzar productos al mercado, lo que puede provocar que las empresas utilicen datos con puntos anómalos que no han eliminado correctamente. Este entrenamiento imperfecto podría provocar que el algoritmo pase por alto algunos ataques. Otro de los riesgos nace de la capacidad de los hackers para acceder a los sistemas de una empresa de seguridad. Si lo logran, pueden corromper los datos cambiando las etiquetas para que algunos ejemplos de malware se etiqueten como código limpio.

Pero para cometer sus fechorías, los ciberdelincuentes ni siquiera necesitan manipular los datos. Les basta con resolver las características del código que usa un modelo para marcar el malware y luego eliminarlo de su propio código malicioso para que el algoritmo no lo detecte.

El problema del algoritmo maestro

En una de las sesiones, los investigadores de Microsoft Holly Stewart y Jugal Parikh señalaron el riesgo de depender de un único algoritmo maestro para controlar un sistema de seguridad al completo. Si ese algoritmo se ve comprometido, no habría ninguna forma de indicar que hay problemas.

Para ayudar a protegerse contra esta situación, el servicio de protección contra amenazas de la compañía, Windows Defender de Microsoft, usa un conjunto diverso de algoritmos con diferentes conjuntos de datos de entrenamiento y características. Así, si un algoritmo es pirateado, los resultados de los demás (siempre y cuando que su integridad no se haya visto comprometida) señalarán la anomalía en el primer modelo.

Y por si fuera poco, Marty también advirtió de la dificultad de entender las conclusiones de los algoritmos especialmente complejos. Este problema de "explicabilidad" puede dificultar la evaluación del problema que provoca las anomalías detectadas por el sistema de seguridad (ver El secreto más oscuro de la inteligencia artificial: ¿por qué hace lo que hace?).

A pesar de todos estos riesgos, la IA y el aprendizaje automático son buenas herramientas de todo nuestro arsenal defensivo cibernético. El mensaje de Marty y el resto de expertos fue que las compañías de seguridad deben esforzarse al máximo en monitorizar y minimizar los riesgos asociados a sus modelos algorítmicos.

Pero aunque sea fácil de decir, cumplir este objetivo es un gran reto debido a que las personas con la combinación ideal de una larga trayectoria en ciberseguridad y en ciencia de datos todavía son tan poco comunes como encontrarse un día de verano en las Vegas en el que calor resulte soportable.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Cómo la soberanía digital amenaza el avance y las ventajas de la nube

    Las iniciativas de distintos países para establecer reglas propias para los datos nacionales por parte de proveedores internacionales de computación en la nube hará que el acceso a la tecnología sea cada vez más caro y complicado y concentrará sus beneficios en un puñado de grandes empresas capaces de afrontar los cambios

  2. Casi 20.000 empresas y gobiernos, víctimas de un hackeo ruso masivo

    Gracias a un trabajo "inteligente y estratégico", los ciberdelincuentes colocaron una puerta trasera en el software de SolarWinds y la usaron durante meses sin ser detectados. Entre las víctimas del ciberataque destacan los departamentos del Tesoro, de Comercio y de Seguridad nacional de EE. UU.

  3. La radiación cósmica destruye los cúbits superconductores en milisegundos

    Los componentes básicos de la computación cuántica son tan sensibles que, incluso a niveles bajos, estos rayos provocan su decoherencia. Aunque el hallazgo podría contribuir a la búsqueda de materia oscura, obligará a revestir los ordenadores cuánticos de hormigón o a instalarlos bajo tierra