.

Alexander Farnsworth | Getty

Inteligencia Artificial

2020 fue el gran año del reconocimiento facial, para bien y para mal

1

El año pasado, el uso de la tecnología se disparó tanto a nivel privado como público pero, al mismo tiempo, la sociedad empezó a ser consciente de los enormes peligros que supone. Aunque muchas tecnológicas paralizaron la venta de sus productos asociados, también aumentaron sus niveles de presión

  • por Tate Ryan-Mosley | traducido por Ana Milutinovic
  • 08 Enero, 2021

El primer arresto indebido confirmado por la tecnología de reconocimiento facial en Estados Unidos ocurrió en enero de 2020. El hombre negro Robert Williams fue detenido la entrada a su casa, a las afueras de Detroit (EE. UU.), con su esposa y su hija pequeña presentes. Pasó la noche en la cárcel. Al día siguiente, en la sala de interrogatorios, un detective deslizó una foto a través de la mesa hacia Williams de un hombre negro diferente que había sido grabado en un vídeo robando relojes de la tienda Shinola.

"¿Es usted?", preguntó.

"No, ese no soy yo", Williams respondió.

El detective le pasó otra foto: "¿Supongo que tampoco es usted?"

Williams levantó la foto al lado de su rostro. Claramente no era él. Williams dijo: "Este no soy yo. Espero que no crea que todas las personas negras se parecen". El detective respondió: "El ordenador dice que es usted".

Lo novedoso de la detención no es que haya ocurrido ni que haya sido un error. Se sabe que el reconocimiento facial es menos preciso para las personas de piel más oscura. Y, a pesar de eso, la tecnología se utiliza ampliamente en los departamentos de policía de Estados Unidos, aunque no hay buenos datos sobre su alcance. La parte inusual de la historia de Williams es que la policía admitió haber usado el reconocimiento facial en su detención.

La noticia sobre este caso se hizo pública a principios de agosto y, después de un verano de protestas centradas en cómo se vigila a las comunidades negras en Estados Unidos, fue recibida con indignación nacional. Un par de semanas después salió a la luz otro arresto erróneo de un hombre negro en la misma ciudad, también debido a la tecnología de reconocimiento facial.

Incluso antes de esto, los activistas ya llevaban tiempo exigiendo el final del Proyecto Greenlight, la iniciativa público-privada de la ciudad que utiliza el reconocimiento facial en un esfuerzo por reducir el crimen. Sin embargo, el proyecto no solo sigue en marcha, sino que, a finales de septiembre, el ayuntamiento votó a favor de ampliar el contrato entre el Departamento de Policía de Detroit y su proveedor de reconocimiento facial, DataWorks Plus.

Un año de contradicciones

Los acontecimientos en Detroit son ejemplos de nuestra complicada relación con el reconocimiento facial en este momento. Su uso está creciendo y en algunos campos se ha vuelto esencial. En otros, como el comercio minorista, el reconocimiento facial empieza a implementarse con grandes esperanzas para el futuro. Muchos proveedores de esta tecnología creen que la sociedad se sentirá cada vez más cómoda con el uso de la biometría, y pronto será una parte orgánica de la vida digital: Apple ha apostado fuerte por ella y ya millones de personas usan su sistema Face ID para desbloquear sus iPhones todos los días.

Pero la gente también es cada vez más consciente de los peligros que plantea el reconocimiento facial, especialmente en la justicia penal. Hay mucha más conciencia, más preocupación y más debate que nunca, y en 2020 se promulgó más legislación sobre reconocimiento facial que todos los años anteriores juntos. Hubo prohibiciones o moratorias en seis ciudades de EE. UU. en 2019, y lo mismo volvió a ocurrir en 2020.

Será difícil conciliar estas leyes con el crecimiento de la industria. Pero los acontecimientos de 2020 ofrecen algunas pistas sobre cómo estos acuerdos podrían desarrollarse durante el próximo año.

Pequeñas empresas, gran industria

Hace un año, The New York Times publicó una investigación sobre la pequeña empresa de reconocimiento facial ClearviewAI, que ejecutó su algoritmo en una base de datos de miles de millones de imágenes tomadas de las redes sociales. Los departamentos de policía que usaban el sistema de ClearviewAI accedían eficazmente a esas fotos de Facebook durante las investigaciones para buscar coincidencias con las imágenes policiales a menudo borrosas o incompletas.

La compañía fue muy criticada, y los reportajes posteriores de BuzzFeed News mostraron que su sistema se estaba utilizando en hasta 2.200 agencias de aplicación de la ley en EE. UU., así como en el Servicio de Inmigración y Control de Aduanas, en el Departamento de Justicia de EE. UU. y en distintas tiendas como Macy's y Walmart.

"El reportaje sobre Clearview realmente asustó a mucha gente, y debería", afirma el profesor asociado de políticas del Centro de Privacidad y Tecnología de la Universidad de Georgetown (EE. UU.) Jameson Spivack. Muchas de las preocupaciones se centran en lo fragmentado que está el campo. Si bien las grandes empresas como IBM y Microsoft son fuerzas importantes, también hay muchas empresas privadas más pequeñas que operan con poca supervisión pública, como ClearviewAI y NtechLab. El informe también expuso lo poco que sabía la sociedad sobre el uso generalizado de la tecnología por parte del Gobierno.

El catalizador: las protestas raciales

Estas historias crearon conciencia sobre los problemas, pero Spivack cree que las protestas de Black Lives Matter tras el asesinato de George Floyd fueron el "mayor catalizador" de la legislación que restringe el uso del reconocimiento facial en Estados Unidos. De repente, los estadounidenses comenzaron a cuestionar la policía y sus herramientas, políticas y cultura.

La preocupación ha empezado a crecer después de que los investigadores Joy Buolamwini y Timnit Gebru descubrieran y documentaran sesgos raciales en los productos comerciales de reconocimiento facial en 2018, lo que llevó a varias ciudades y estados a aprobar leyes que impedían a la policía usar el reconocimiento facial en sus cámaras corporales.

Pero, durante el mayor movimiento de protesta en la historia de Estados Unidos, a los activistas les preocupaba que se utilizaran las tecnologías de vigilancia policial como represalia. Desde entonces, se ha confirmado que al menos los departamentos de policía de Nueva YorkMiami y Washington (todos en EE. UU.) utilizaron el reconocimiento facial para vigilar a los manifestantes.

El 1 de junio, la policía de Washington utilizó bolas de pimienta y gases lacrimógenos para disolver a los manifestantes para que el entonces presidente, Donald Trump, pudiera tomarse unas fotografías en una iglesia cercana. En medio del caos, un manifestante golpeó a un oficial de policía. Días después, los agentes encontraron una foto de ese hombre en Twitter y la pasaron por su sistema de reconocimiento facial, consiguieron una coincidencia y llevaron a cabo la detención. De manera similar, en Miami, una mujer acusada de tirar piedras a la policía durante una protesta fue detenida gracias reconocimiento facial.

Spivack vio a los activistas contra el reconocimiento facial trabajar en estrecha colaboración con los grupos de reforma policial durante el verano y el otoño de 2020, liderados por otros grupos de defensa como la Unión Estadounidense de Libertades Civiles (ACLU, por sus siglas en inglés). En Portland (EE. UU.), un manifestante incluso creó un sistema de reconocimiento facial para identificar a los agentes de policía anónimos.

A medida que avanzaba el 2020, se propuso una legislación para limitar el uso policial de dicha tecnología a nivel municipal, estatal e incluso federal. En junio, los legisladores demócratas presentaron un proyecto de ley para prohibir el uso del reconocimiento facial por parte de la policía federal. En Vermont (EE. UU.), se creó una prohibición estatal sobre el uso de la tecnología por parte del Gobierno por una orden ejecutiva del gobernador. En Massachusetts (EE. UU.), las ciudades de Cambridge y Boston aprobaron prohibiciones sobre la tecnología este verano, y el Gobierno estatal adoptó en diciembre una prohibición del reconocimiento facial para las agencias públicas, que incluye la policía, pero el gobernador Charlie Baker actualmente se niega a firmar ese proyecto de ley.

California (EE. UU.) inició su propio debate sobre la legislación estatal en mayo, y las varias de sus ciudades ya han prohibido el uso del reconocimiento facial por parte de las fuerzas del orden. En julio, la ciudad de Nueva York estableció una moratoria sobre el reconocimiento facial en las escuelas hasta 2022. En Portland, una nueva prohibición en toda la ciudad prohíbe el uso de esta tecnología por parte de cualquier grupo público o privado.

Pero este cambio no está ocurriendo en todas partes, como muestra el nuevo acuerdo sobre la vigilancia en Detroit. Spivack considera que la dinámica del poder racial podría estar influyendo en la lucha política en torno a la vigilancia policial. "Si nos fijamos en muchas de las primeras ciudades en prohibir el reconocimiento facial, por lo general, no siempre, pero en general, eran más ricas, más blancas, muy progresistas, quizás con más capital político y capacidad para impactar a los legisladores, bastante más que las comunidades más marginadas", asegura.

¿El panorama nacional?

Sin embargo, no toda la reacción se ha convertido en legislación. A principios de junio, IBM anunció que había dejado de vender todos sus productos de reconocimiento facial. Amazon y Microsoft siguieron su ejemplo y suspendieron temporalmente sus contratos con los departamentos de policía. Y en julio, la ACLU presentó una demanda contra ClearviewAI por no cumplir la Ley de Privacidad de la Información Biométrica de Illinois (EE. UU.), el primer desafío jurídico completo para la empresa.

Microsoft, Amazon, IBM y otros grupos del sector como la Asociación de la Industria de Seguridad se están preparando para una pelea. Aumentaron de manera drástica sus ejercicios de presión sobre el reconocimiento facial entre 2018 y 2019, y se espera que 2020 revele un aumento aún mayor. Muchos están a favor de una mayor regulación, pero no de las prohibiciones. La moratoria de Amazon terminará en junio y la de Microsoft depende de la institución de la ley federal.

Mientras tanto, la ACLU sigue redactando una ley para prohibir la tecnología. Una declaración en su página web señala que la organización "lleva a los tribunales, calles, órganos legislativos, ayuntamientos e incluso salas de juntas corporativas la defensa de nuestros derechos contra los crecientes peligros de esta tecnología de vigilancia no regulada".

Las prioridades de la nueva administración Biden también darán forma a la regulación en 2021 y más adelante. Cuando aún era candidata presidencial, Kamala Harris citó la regulación del reconocimiento facial en la aplicación de la ley como parte de su plan de reforma policial. Si la administración impulsa una legislación federal, es más probable que se convierta en un tema nacional o internacional, con el resultado de que se destinarán menos recursos a las campañas de supervisión local. Pero si no, la lucha probablemente continúe desarrollándose a nivel estatal y municipal.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana
  2. "La pregunta es cuánta participación humana se necesita para que algo sea arte"

    Alex Reben hace arte con (y sobre) IA. Hablé con él sobre lo que la nueva ola de modelos generativos significa para el futuro de la creatividad humana

    Detalle de un cuadro de una cabeza deformada en la que unas enormes orejas en la parte frontal de la cara tapan los ojos y una lengua brillante con textura de fresa sobresale de la boca abierta.
  3. Compensación y atribución para los creadores, la apuesta de Adobe por una IA generativa diferente

    La empresa afirma que es la prueba de que los modelos de IA de calidad no tienen por qué incluir polémicos contenidos protegidos por derechos de autor

    Imagen generada mediante IA de una mano que utiliza una cuchilla de precisión para cortar un dibujo de la realidad