.

Computación

La protección de los sistemas de IA pasa por enseñarles datos falsos

1

Hacer creer a una inteligencia artificial algo que no es cierto puede ser muy peligroso. Según el investigador de Google Brain Ian Goodfellow las redes generativas antagónicas pueden entrenar su defensa con ejemplos contradictorios

  • por Jackie Snow | traducido por Mariana Díaz
  • 02 Abril, 2018

A veces se puede engañar a los sistemas de inteligencia artificial (IA) para que crean ver algo que realmente no está allí. Por ejemplo,cuando el software de Google "vio" una tortuga impresa en 3D como un rifle. Es crucial encontrar una forma de detener estos ataques potenciales, antes de que la tecnología se pueda utilizar de manera más amplia en sistemas críticos para la seguridad, como el software de visión artificial que hay detrás de los vehículos autónomos

En la conferencia anual EmTech Digital de MIT Technology Review en San Francisco (EE. UU.) que se celebró la semana pasada, el investigador de Google Brain Ian Goodfellow explicó cómo los investigadores pueden proteger sus sistemas.

Goodfellow es mejor conocido por ser el creador de las redes generativas antagónicas (GAN, por sus siglas en inglés), un tipo de inteligencia artificial que hace uso de dos redes entrenadas en los mismos datos. Una de las redes, llamada generativa, crea datos sintéticos (generalmente imágenes), mientras que la otra red, llamada discriminador, usa el mismo conjunto de datos para determinar si la entrada es real. Goodfellow analizó casi una docena de ejemplos sobre cómo los diferentes investigadores han usado las GAN en su trabajo, pero se centró en su principal interés actual de investigación: defender a los sistemas de aprendizaje automático de ser engañados. El investigador sostiene que, en las tecnologías anteriores, como los sistemas operativos, la defensa contra la tecnología se agregó más tarde; un error que no quiere que se repita con el aprendizaje automático.

"Quiero que sea lo más seguro posible antes de que confiemos demasiado en él", dijo Goodfellow.

Las GAN son excelentes creando ejemplos contradictorios realistas, y estos terminan siendo una magnífica forma de entrenar a los sistemas de IA para desarrollar una defensa robusta. Si los sistemas están instruidos para detectar ejemplos antagónicos, entonces también mejoran en reconocer ataques antagonistas. Cuanto mejores sean esos ejemplos antagónicos, más fuerte es la defensa.

Goodfellow dice que estas preocupaciones aún son teóricas y que no ha escuchado que se utilicen ejemplos antagónicos para atacar a los sistemas de visión artificial. Pero los bots o los spammers sí que intentan usar métodos similares para generar mayor cantidad de tráfico legítimo y lograr sus objetivos.

Según Goodfellow, afortunadamente aún hay tiempo para preparar a nuestros sistemas y que puedan defenderse de los ataques provocados con inteligencia artificial.

"Hasta ahora, el aprendizaje automático no es lo suficientemente bueno como para ser utilizado en ataques", señaló Goodfellow.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Cómo la soberanía digital amenaza el avance y las ventajas de la nube

    Las iniciativas de distintos países para establecer reglas propias para los datos nacionales por parte de proveedores internacionales de computación en la nube hará que el acceso a la tecnología sea cada vez más caro y complicado y concentrará sus beneficios en un puñado de grandes empresas capaces de afrontar los cambios

  2. Casi 20.000 empresas y gobiernos, víctimas de un hackeo ruso masivo

    Gracias a un trabajo "inteligente y estratégico", los ciberdelincuentes colocaron una puerta trasera en el software de SolarWinds y la usaron durante meses sin ser detectados. Entre las víctimas del ciberataque destacan los departamentos del Tesoro, de Comercio y de Seguridad nacional de EE. UU.

  3. La radiación cósmica destruye los cúbits superconductores en milisegundos

    Los componentes básicos de la computación cuántica son tan sensibles que, incluso a niveles bajos, estos rayos provocan su decoherencia. Aunque el hallazgo podría contribuir a la búsqueda de materia oscura, obligará a revestir los ordenadores cuánticos de hormigón o a instalarlos bajo tierra