.

Kyonntra/Getty Images

Inteligencia Artificial

El año que Apple empezó a tomarse en serio la privacidad del usuario

1

A lo largo de 2019, el gigante tecnológico ha introducido una serie de nuevas técnicas en productos como Siri para mejorar la privacidad a nivel local sin tener que sacar los datos de cada dispositivo. Este cambio demuestra que es posible generar servicios útiles y que garanticen la seguridad de la información

  • por Karen Hao | traducido por Ana Milutinovic
  • 31 Diciembre, 2019

Si tiene un iPhone, es posible que a lo largo de este año haya notado un cambio en el comportamiento de Siri. Ahora, el asistente de voz en el teléfono se "despierta" cuando le dice "Hola Siri", pero ya no lo hace cuando esa misma frase es pronunciada por sus amigos o familiares. Apple promovió este cambio por una cuestión práctica: quería una forma de evitar que todos los iPhones de una habitación respondieran cuando una persona pronunciara la frase de activación.

Tal vez crea que Apple necesitó reunir una gran cantidad de datos de audio para ejecutar este cambio. Pero, sorprendentemente, no fue así. Para lograrlo, la empresa utilizó una técnica conocida como aprendizaje federado, según el jefe de privacidad de Apple, Julien Freudiger. El aprendizaje federado es un método de aprendizaje automático que preserva la privacidad y fue introducido por primera vez por Google en 2017.

Gracias a ella, Apple pudo entrenar diferentes copias de un modelo de reconocimiento de voz en todos los dispositivos de sus usuarios, utilizando únicamente los datos de audio disponibles localmente. Luego envió los modelos actualizados a un servidor central para combinarlos en un modelo principal. De esta manera, el audio sin procesar de las solicitudes de los usuarios de Siri nunca sale de sus iPhones y iPads, mientras que el asistente mejora continuamente a la hora de identificar la voz correspondiente.

Además del aprendizaje federado, Apple también ha usado un enfoque conocido como privacidad diferencial para añadir una capa adicional de protección. La técnica inyecta una pequeña cantidad de ruido en cualquier dato sin procesar antes de introducirlo a un modelo local de aprendizaje automático. Este paso hace que sea extremadamente difícil para los actores maliciosos aplicar la ingeniería inversa a los archivos de audio originales del modelo entrenado.

Aunque Apple lleva utilizando la privacidad diferencial desde 2017, lo ha combinado con el aprendizaje federado a partir de iOS 13, que se lanzó al público en septiembre de este año. Además de personalizar a Siri, ambas técnicas ya se utilizan para algunas otras aplicaciones, como QuickType (el teclado personalizado de Apple) y la función Found In Apps, que escanea la agenda y las aplicaciones de correo en busca de nombres de personas que nos escriben y nos llaman pero cuyos números  no están en nuestro teléfono. Freudiger asegura que la compañía planea implementar estos métodos de privacidad en más aplicaciones y características dentro de poco.

En el último año, el aprendizaje federado se ha vuelto más popular dentro de la comunidad de investigación de inteligencia artificial (IA) a medida que las preocupaciones sobre la privacidad de datos aumentan. En marzo, Google lanzó un nuevo conjunto de herramientas para facilitar a los desarrolladores la implementación de sus propios modelos de aprendizaje federado. Entre muchos otros usos, los investigadores esperan que ayude a superar los desafíos de privacidad en la aplicación de IA para atención médica. Compañías como Owkin, Doc.ai y Nvidia están interesadas en usarlo para esto.

Aunque la técnica aún es relativamente nueva y necesita perfeccionarse, la última adopción de Apple ofrece otro estudio de caso sobre cómo se puede aplicar a gran escala. También indica un cambio fundamental en la compensación que la industria tecnológica ha asumido tradicionalmente entre la privacidad y la utilidad: de hecho, ahora es posible lograr ambas cosas. Esperemos que otras compañías se den cuenta de eso pronto.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. La pandemia acelera los despidos y la automatización de los 'call centers'

    La necesidad de reducir personal y la avalancha de llamadas asociadas al coronavirus ha impulsado la adopción de inteligencia artificial en servicios de atención al cliente mediante chatbots y sistemas por voz. Aunque esos puestos de trabajo podrían desaparecer para siempre, los clientes parecen encantados

  2. La IA, incapaz de predecir nuestros súbitos cambios de comportamiento

    Ninguna inteligencia artificial está entrenada para que una semana agotemos el papel higiénico y las mascarillas y la siguiente, la levadura y los productos de jardinería. Los algoritmos de gigantes como Amazon y Netflix deben reajustarse manualmente para abordar la volatilidad de nuestros patrones de conducta durante la pandemia

  3. La COVID-19 acelera el uso de la IA médica, con riesgos y beneficios

    Ante la escasez de recursos, cada vez más hospitales están usando inteligencia artificial para cribar a los pacientes a través de sus radiografías de tórax. Los algoritmos que funcionan bien están ayudando mucho a los profesionales, pero también hay empresas que intentan aprovecharse de la desesperación de los médicos