.

Kyonntra/Getty Images

Inteligencia Artificial

El año que Apple empezó a tomarse en serio la privacidad del usuario

1

A lo largo de 2019, el gigante tecnológico ha introducido una serie de nuevas técnicas en productos como Siri para mejorar la privacidad a nivel local sin tener que sacar los datos de cada dispositivo. Este cambio demuestra que es posible generar servicios útiles y que garanticen la seguridad de la información

  • por Karen Hao | traducido por Ana Milutinovic
  • 31 Diciembre, 2019

Si tiene un iPhone, es posible que a lo largo de este año haya notado un cambio en el comportamiento de Siri. Ahora, el asistente de voz en el teléfono se "despierta" cuando le dice "Hola Siri", pero ya no lo hace cuando esa misma frase es pronunciada por sus amigos o familiares. Apple promovió este cambio por una cuestión práctica: quería una forma de evitar que todos los iPhones de una habitación respondieran cuando una persona pronunciara la frase de activación.

Tal vez crea que Apple necesitó reunir una gran cantidad de datos de audio para ejecutar este cambio. Pero, sorprendentemente, no fue así. Para lograrlo, la empresa utilizó una técnica conocida como aprendizaje federado, según el jefe de privacidad de Apple, Julien Freudiger. El aprendizaje federado es un método de aprendizaje automático que preserva la privacidad y fue introducido por primera vez por Google en 2017.

Gracias a ella, Apple pudo entrenar diferentes copias de un modelo de reconocimiento de voz en todos los dispositivos de sus usuarios, utilizando únicamente los datos de audio disponibles localmente. Luego envió los modelos actualizados a un servidor central para combinarlos en un modelo principal. De esta manera, el audio sin procesar de las solicitudes de los usuarios de Siri nunca sale de sus iPhones y iPads, mientras que el asistente mejora continuamente a la hora de identificar la voz correspondiente.

Además del aprendizaje federado, Apple también ha usado un enfoque conocido como privacidad diferencial para añadir una capa adicional de protección. La técnica inyecta una pequeña cantidad de ruido en cualquier dato sin procesar antes de introducirlo a un modelo local de aprendizaje automático. Este paso hace que sea extremadamente difícil para los actores maliciosos aplicar la ingeniería inversa a los archivos de audio originales del modelo entrenado.

Aunque Apple lleva utilizando la privacidad diferencial desde 2017, lo ha combinado con el aprendizaje federado a partir de iOS 13, que se lanzó al público en septiembre de este año. Además de personalizar a Siri, ambas técnicas ya se utilizan para algunas otras aplicaciones, como QuickType (el teclado personalizado de Apple) y la función Found In Apps, que escanea la agenda y las aplicaciones de correo en busca de nombres de personas que nos escriben y nos llaman pero cuyos números  no están en nuestro teléfono. Freudiger asegura que la compañía planea implementar estos métodos de privacidad en más aplicaciones y características dentro de poco.

En el último año, el aprendizaje federado se ha vuelto más popular dentro de la comunidad de investigación de inteligencia artificial (IA) a medida que las preocupaciones sobre la privacidad de datos aumentan. En marzo, Google lanzó un nuevo conjunto de herramientas para facilitar a los desarrolladores la implementación de sus propios modelos de aprendizaje federado. Entre muchos otros usos, los investigadores esperan que ayude a superar los desafíos de privacidad en la aplicación de IA para atención médica. Compañías como Owkin, Doc.ai y Nvidia están interesadas en usarlo para esto.

Aunque la técnica aún es relativamente nueva y necesita perfeccionarse, la última adopción de Apple ofrece otro estudio de caso sobre cómo se puede aplicar a gran escala. También indica un cambio fundamental en la compensación que la industria tecnológica ha asumido tradicionalmente entre la privacidad y la utilidad: de hecho, ahora es posible lograr ambas cosas. Esperemos que otras compañías se den cuenta de eso pronto.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Historia de cómo la IA biométrica nos robó el control de nuestras caras

    El estudio más grande jamás realizado sobre datos de reconocimiento facial muestra la evolución en las fuentes de datos utilizadas y cómo la aparición del aprendizaje profundo desbarató cualquier tipo de práctica de consentimiento y norma ética a la hora de crear conjuntos de datos de entrenamiento

  2. TR10: GPT-3 representa lo mejor y lo peor de la IA actual

    La última inteligencia artificial de lenguaje de OpenAI resulta impresionante, pero, en realidad, carece de cualquier tipo de comprensión del mundo real y de las implicaciones de las palabras con las que trabaja

  3. TR10: IA polivalente para una inteligencia más flexible

    La inteligencia humana surge de nuestra combinación de sentidos y habilidades lingüísticas. Quizás ese mismo enfoque se pueda aplicar para la inteligencia artificial.