.

John Malta

Inteligencia Artificial

Las máquinas inteligentes se unen a un club de la lucha para convertirse en soldados

1

Una competición medirá a unos programas contra otros en tres pruebas en las que tendrán que engañarse, atacarse y confundirse. El objetivo es detectar los programas más fuertes para emplearlos como armas contra las posibles ciberguerras del futuro

  • por Will Knight | traducido por Teresa Woods
  • 31 Julio, 2017

Una nueva competición marca el inicio de un concepto que podría convertirse en el futuro de la ciberseguridad y la ciberguerra, basada en algoritmos de inteligencia artificial (IA) de combate que luchen nuestras guerras.

El concurso, que se desarrollará durante los próximos cinco meses, está dirigido por Kaggle ,una plataforma para concursos de ciencia de datos. El reto enfrentará a los algoritmos de los investigadores mientras se intentan confundir y engañar unos a otros. El objetivo es que el reto ofrezca información sobre cómo reforzar los sistemas de aprendizaje de la máquina contra futuros ataques.

"Catalizar las investigaciones sobre las redes neuronales profundas engañables y las que no pueden ser engañadas es una idea genial", dice el profesor asistente de la Universidad de Wyoming (EEUU), que estudia los límites del aprendizaje automático Jeff Clune.

El concurso tendrá tres componentes. Un reto consistirá en intentar confundir a un sistema de aprendizaje automático para que funcione mal. Otro se centrará en obligar a un sistema para que clasifique algo incorrectamente. Y en el tercero habrá que desarrollar las defensas más robustas. Los resultados serán presentados en una importante conferencia de inteligencia artificial finales de este año.

El aprendizaje automático, en particular el aprendizaje profundo, se están convirtiendo rápidamente en una herramienta indispensable en muchas industrias. La tecnología implica alimentar con datos a la máquina, plantearle el resultado que se quiere obtener y que sea ella la que desarrolle su propio algoritmo para lograr el resultado. Para ello, el programa ajusta los parámetros de una enorme red interconectada de neuronas simuladas matemáticamente.

Hace mucho tiempo se sabe que los sistemas de aprendizaje automático pueden ser engañados. Los spammers pueden, por ejemplo, evadir los filtros modernos de spam determinando qué patrones sigue el algoritmo del filtro. Y en los últimos años, los investigadores han demostrado que incluso los algoritmos más inteligentes pueden ser engañados de manera sorprendente. Por ejemplo, los algoritmos de aprendizaje profundo con habilidad casi humana para reconocer objetos en imágenes pueden ser engañados por imágenes aparentemente abstractas o aleatorias que explotan los patrones que buscan los algoritmos.

"El aprendizaje a partir de máquinas rivales es más difícil de estudiar que el aprendizaje de máquinas convencional, en el que es difícil saber si su ataque es fuerte o si su defensa es realmente débil", explica el investigador de Google Brain Ian Goodfellow, cuya división se dedica a investigar y aplicar el aprendizaje de la máquina, y que ha sido organizador del concurso.

A medida que el aprendizaje automático empieza a dominar el mundo, aumenta el miedo a que estos programas puedan ser engañados para hacer el mal. Los hackers, por ejemplo, podrían evadir las medidas de seguridad para infectar los sistemas con malware. "La seguridad informática se está moviendo hacia el aprendizaje automático. Los malos lo usan para automatizar sus ataques y los buenos para defendernos de ellos", detalla Goodfellow.

En teoría, los delincuentes también podrían engañar a los sistemas de reconocimiento facial y de voz, o incluso poner señales para engañar a los sistemas de visión en coches autónomos para provocar accidentes.

Kaggle se ha convertido en un caldo de cultivo esencial para el desarrollo de algoritmos, y en un semillero de científicos talentosos. La compañía fue adquirida por Google en marzo y ahora forma parte de la plataforma Google Cloud. Goodfellow y otro investigador de Google Brain, Alexey Kurakin, presentaron la idea para el reto antes de la adquisición.

Benjamin Hamner, cofundador y CTO de Kaggle, espera que el concurso llame la atención sobre un problema inminente. "A medida que el aprendizaje automático se masifica, se vuelve imprescindible comprender los problemas y sus riesgos", alerta el experto.

Los beneficios del concurso abierto superan a las desventajas de que los nuevos ataques que se desarrollen se divulguen entre la sociedad. Hammer matiza: "Creemos que esta investigación funcionará mejor si se hace y se comparte en abierto en lugar de estar a puertas cerradas". Clune, por su parte, está interesado en el concurso para probar algoritmos que supuestamente pueden soportar ataques. El experto concluye: "Mi dinero está en sistemas que pueden seguir siendo engañados en un futuro previsible".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El polígrafo de la IA: esta herramienta ayuda a detectar patrañas en chatbots

    En muchas situaciones de alto riesgo, no merece la pena arriesgarse con grandes modelos lingüísticos. Saber qué resultados hay que desechar puede arreglarlo. 

    Un toro mirando al frente con una máquina de polígrafo alrededor del cuello. Detrás, espirales de texto superpuestas.
  2. La ley de la IA de la UE en cuatro claves

    El trabajo duro empieza ahora.

    Un candado azul con las estrellas amarillas de la UE de fondo
  3. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana