.

Unsplash

Computación

Claves para automatizar las tareas de ciberseguridad de forma fiable

1

Cada vez más empresas incorporan inteligencia artificial en sus servicios de seguridad cibernética. Pero si no la aplican con cuidado, con prisas o simplemente por moda, sus clientes pueden ser aún más vulnerables a los hackers. Le ofrecemos algunos consejos para usar la IA correctamente

  • por Martin Giles | traducido por Mariana Díaz
  • 15 Agosto, 2018

Una de las cosas que más me llamó la atención cuanto visité la exhibición de la masiva conferencia de seguridad cibernética Black Hat celebrada este mes en Las Vegas (EE. UU.) fue el gran número de compañías que se jactan de usar el aprendizaje automático y la inteligencia artificial (IA) para que el mundo sea un lugar más seguro.

Pero algunos expertos temen que estos proveedores de ciberseguridad no estén prestando suficiente atención a los riesgos asociados a la dependencia de estas tecnologías. "Está sucediendo algo preocupante, y en algunos casos, incluso peligroso", advierte Raffael Marty de la firma de seguridad Forcepoint.

El lógico que la industria de la seguridad quiera disponer de algoritmos. A medida que la cantidad de dispositivos conectados a internet aumenta, el mundo se enfrenta a un tsunami de ataques cibernéticos cada vez mayor (ver El "creciente y masivo" riesgo de IoT puede acabar cobrándose vidas humanas). Al mismo tiempo, el sector padece una gran escasez de expertos en ciberseguridad bien formados (ver El estrés laboral en ciberseguridad es el nuevo aliado de los hackers).

Utilizar el aprendizaje automático y la IA para automatizar la detección de ataques y responder a las amenazas puede aliviar la carga de los trabajadores y ayudar a identificar las amenazas de manera más eficiente que otros enfoques basados ​​en software (ver Este robot hacker encuentra y repara vulnerabilidades automáticamente).

Datos corrompidos

Pero Marty y otros ponentes de Black Hat afirman que muchas empresas están lanzando productos basados ​​en aprendizaje automático porque creen que deben hacerlo para complacer a los clientes seducidos por la moda de la IA. Esto podría provocar que las compañías vivan bajo una falsa sensación de seguridad aportada por algoritmos de aprendizaje automático.

Muchos productos que se están implementando se basan en el "aprendizaje supervisado". Esta técnica requiere que las empresas seleccionen y etiqueten los conjuntos de datos para entrenar a los algoritmos. Un ejemplo sería el etiquetado de código considerado malware y el que está limpio de virus.

Marty advierte que uno de los riesgos radica en las prisas por lanzar productos al mercado, lo que puede provocar que las empresas utilicen datos con puntos anómalos que no han eliminado correctamente. Este entrenamiento imperfecto podría provocar que el algoritmo pase por alto algunos ataques. Otro de los riesgos nace de la capacidad de los hackers para acceder a los sistemas de una empresa de seguridad. Si lo logran, pueden corromper los datos cambiando las etiquetas para que algunos ejemplos de malware se etiqueten como código limpio.

Pero para cometer sus fechorías, los ciberdelincuentes ni siquiera necesitan manipular los datos. Les basta con resolver las características del código que usa un modelo para marcar el malware y luego eliminarlo de su propio código malicioso para que el algoritmo no lo detecte.

El problema del algoritmo maestro

En una de las sesiones, los investigadores de Microsoft Holly Stewart y Jugal Parikh señalaron el riesgo de depender de un único algoritmo maestro para controlar un sistema de seguridad al completo. Si ese algoritmo se ve comprometido, no habría ninguna forma de indicar que hay problemas.

Para ayudar a protegerse contra esta situación, el servicio de protección contra amenazas de la compañía, Windows Defender de Microsoft, usa un conjunto diverso de algoritmos con diferentes conjuntos de datos de entrenamiento y características. Así, si un algoritmo es pirateado, los resultados de los demás (siempre y cuando que su integridad no se haya visto comprometida) señalarán la anomalía en el primer modelo.

Y por si fuera poco, Marty también advirtió de la dificultad de entender las conclusiones de los algoritmos especialmente complejos. Este problema de "explicabilidad" puede dificultar la evaluación del problema que provoca las anomalías detectadas por el sistema de seguridad (ver El secreto más oscuro de la inteligencia artificial: ¿por qué hace lo que hace?).

A pesar de todos estos riesgos, la IA y el aprendizaje automático son buenas herramientas de todo nuestro arsenal defensivo cibernético. El mensaje de Marty y el resto de expertos fue que las compañías de seguridad deben esforzarse al máximo en monitorizar y minimizar los riesgos asociados a sus modelos algorítmicos.

Pero aunque sea fácil de decir, cumplir este objetivo es un gran reto debido a que las personas con la combinación ideal de una larga trayectoria en ciberseguridad y en ciencia de datos todavía son tan poco comunes como encontrarse un día de verano en las Vegas en el que calor resulte soportable.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. La radiación cósmica destruye los cúbits superconductores en milisegundos

    Los componentes básicos de la computación cuántica son tan sensibles que, incluso a niveles bajos, estos rayos provocan su decoherencia. Aunque el hallazgo podría contribuir a la búsqueda de materia oscura, obligará a revestir los ordenadores cuánticos de hormigón o a instalarlos bajo tierra

  2. Criptografía reticular, el cifrado a prueba de ordenadores cuánticos

    La inminente llegada de la computación cuántica amenaza con destruir los métodos tradicionales de cifrado que usamos actualmente. Por ello, distintos grupos trabajan en nuevos enfoques poscuánticos capaces de resistir a estas máquinas. Este es el más prometedor hasta la fecha 

  3. Un nuevo chip inspirado en el cerebro distingue 10 olores diferentes

    Su diseño basado en la estructura y la actividad eléctrica del cerebro, un enfoque conocido como chip neuromórfico, ha aprendido a diferenciar fragancias con gran precisión y pocos ejemplos de entrenamiento. El siguiente paso será replicar el comportamiento de la vista y tacto