.

Robótica

Cómo regular el reconocimiento facial para evitar el Gran Hermano

1

Identificar nuestros rostros en las imágenes plantea dilemas éticos importantes, ya que gobiernos y empresas podrían utilizar esta tecnología como una herramienta de vigilancia. Un influyente centro de investigación en el campo reclama que se tomen medidas urgentes para proteger a los consumidores 

  • por Will Knight | traducido por Ana Milutinovic
  • 08 Enero, 2019

La inteligencia artificial (IA) ha experimentado un impresionante progreso en los últimos años. Sin embargo, ahora los rápidos avances están despertando algunos dilemas éticos relevantes. 

El más importante de ellos es la forma en la que el aprendizaje automático puede identificar con gran precisión los rostros de las personas en fotos y vídeos. Esto nos permite desbloquear nuestro teléfono con una sonrisa, pero también hace que los gobiernos y las grandes corporaciones cuenten con una nueva y potente herramienta de vigilancia.

Un nuevo y extenso informe del AI Now Institute, un influyente instituto de investigación con sede en Nueva York (EE. UU.), acaba de nombrar el reconocimiento facial como un desafío clave para la sociedad y los legisladores.

La velocidad a la que se ha desarrollo el reconocimiento facial se debe al rápido avance de un tipo de aprendizaje automático conocido como el aprendizaje profundo. Esta tecnología se basa en una maraña de cálculos, muy parecidos a las conexiones en un cerebro biológico, para reconocer patrones en los datos. Actualmente es capaz de llevar a cabo el reconocimiento de patrones con una precisión asombrosa. 

La identificación de objetos, o caras individuales, incluso en imágenes y vídeos de baja calidad, es una de las especialidades del aprendizaje profundo y las empresas se han apresurado a adoptar esas herramientas.

Por ello, el informe solicita al Gobierno de EE. UU. que tome medidas generales para mejorar la regulación de esta tecnología que avanza constantemente teniendo en cuenta el gran debate sobre las implicaciones en la privacidad. "La implementación de los sistemas de IA se está expandiendo rápidamente, sin un adecuado régimen de gobernanza, supervisión o rendición de cuentas", destaca el informe.

El estudio propone, por ejemplo, ampliar el poder de los organismos gubernamentales ya existentes para regular los problemas de IA, incluido el uso del reconocimiento facial: "Campos como la salud, la educación, la justicia penal y el bienestar tienen sus propios historiales, marcos regulatorios y riesgos.”

El informe también reclama una mayor protección de los consumidores contra las afirmaciones engañosas con respecto a la IA, insta a las empresas a renunciar a las reclamaciones de secreto comercial cuando está en juego la responsabilidad de los sistemas de IA (por ejemplo, cuando se utilizan algoritmos para tomar decisiones críticas y les pide que se rijan de manera más responsable cuando se trata de su uso.

El documento plantea  además que se debe advertir a la sociedad cuándo se utilizan los sistemas de reconocimiento facial para monitorizar a los usuarios y señala que debería existir el derecho de rechazar el uso de dicha tecnología.

Sin embargo, la implementación de estas recomendaciones podría resultar un reto: el reconocimiento facial se está adoptando de forma increíblemente rápida. Se utiliza para desbloquear los últimos iPhones de Apple y habilitar los pagos, mientras que Facebook escanea millones de fotos todos los días para identificar usuarios específicos. 

Hace unos días, Delta Airlines anunció un nuevo sistema de reconocimiento facial en el aeropuerto de Atlanta (EE.UU.). El Servicio Secreto de Estados Unidos también está desarrollando un sistema de seguridad de reconocimiento facial para la Casa Blanca, según un documento destacado por la UCLA (Universidad de California, Los Ángeles, EE.UU.). "El papel de la IA en la vigilancia generalizada se ha expandido enormemente en Estados Unidos, China y muchos otros países del mundo", señala el informe.

De hecho, la tecnología ha sido adoptada a una escala aún mayor en China. Esto a menudo implica las colaboraciones entre compañías privadas de inteligencia artificial y agencias gubernamentales. Las fuerzas policiales han usado IA para identificar a los delincuentes, y numerosos informes sugieren que se está utilizando para encontrar a los disidentes.

Incluso si no se usa de manera éticamente dudosa, esta tecnología también tiene algunos problemas ya incorporados. Por ejemplo, se ha demostrado que algunos sistemas de reconocimiento facial han sido programados con sesgos. Los investigadores de la Unión Americana de Libertades Civiles (ACLU por sus siglas en inglés) demostraron que es probable que una herramienta ofrecida a través del programa en la nube de Amazon identifique erróneamente a las minorías como delincuentes.

El informe también advierte sobre el uso de la monitorización de emociones en los sistemas de escaneo facial y detección de voz. Identificar las emociones de esta manera está relativamente poco comprobado, pero se usa de manera posiblemente discriminatoria, por ejemplo, para monitorizar la atención de los estudiantes.

"Es hora de regular el reconocimiento facial y el de las emociones", dice la cofundadora de AI Now y una de las autoras principales del informe, Kate Crawford. "La afirmación de 'ver' los estados interiores de las personas no es ni científico ni ético".

Robótica

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. "Los asistentes virtuales son extremadamente estúpidos"

    El investigador del MIT Boris Katz lleva cuatro décadas enseñando a las máquinas habilidades lingüísticas. Aunque está orgulloso en parte de que llevemos asistentes virtuales en los bolsillos, también cree que están muy lejos de ser inteligentes. A su juicio, la IA aún tiene que aprender cómo entendemos el mundo

  2. Google confirma que los algoritmos de recomendación nos encarcelan

    Un equipo de su filial de IA, DeepMind, ha analizado distintas configuraciones de algoritmos para estudiar su influencia en las burbujas de filtros y en las cámaras de eco. Cuanto más personalizadas y precisas son sus recomendaciones para cada usuario, más rápido queda atrapado

  3. "Se piensa que los drones sustituyen a otras infraestructuras"

    Repartir vacunas, analizar la fauna o colaborar en la respuesta tras un desastre natural son funciones que ya están desempeñando los drones en algunos países de África. Pero la investigadora Katherine Chandler, que está estudiando cómo influyen en la sociedad, considera que hay que pensar mejor cómo pueden ser útiles