.

Ms Tech | Getty

Otros

Argentina rastrea a niños 'sospechosos' con reconocimiento facial

1

El sistema para identificar a presuntos delincuentes en tiempo real, que se implantó sin ningún tipo de consulta pública, funciona con una base de datos que puede encontrarse fácilmente en internet y que incluye información privada de hasta 166 menores, algunos de ellos de entre uno y tres años de edad

  • por Karen Hao | traducido por Ana Milutinovic
  • 15 Octubre, 2020

En la base de datos nacional de Argentina, decenas de miles de puntos de entrada detallan nombres, fechas de nacimiento y números de identificación nacional (DNI) de personas sospechosas de delitos. La base de datos, conocida como Consulta Nacional de Rebeldías y Capturas (Registro Nacional de Fugitivos y Arrestos), o CONARC, se creó en 2009 como parte de un esfuerzo por mejorar la aplicación de la ley en delitos graves.

Pero hay varias peculiaridades en torno a la CONARC. Por un lado, se trata de un documento de texto en una hoja de cálculo sin contraseña de protección, que cualquier persona puede encontrar fácilmente a través de una búsqueda en Google y descargarlo. Por otro, muchos de los presuntos delitos, como robos menores, no son tan graves, mientras que otros no se especifican en absoluto.

Sin embargo, lo más alarmante es la edad del presunto delincuente más joven, identificado solo como M.G., que fue introducido en el registro por "delitos contra las personas (maliciosas): lesiones graves". M.G. aparentemente nació el 17 de octubre de 2016, lo que significa que dentro de dos días cumplirá cuatro años.

Una nueva investigación de Human Rights Watch encontró que a CONARC no solo se añaden nombres de niños regularmente, sino que la base de datos también sirve para alimentar un sistema de reconocimiento facial del Ayuntamiento de Buenos Aires (Argentina). Por esto, el sistema argentino probablemente sea el primero conocido de este tipo que se utiliza para rastrear a niños sospechosos de actividades delictivas.

"Es completamente indignante", afirma la defensora de los derechos del niño en Human Rights Watch Hye Jung Han, quien dirigió la investigación,.

Buenos Aires empezó a probar el reconocimiento facial en directo el 24 de abril de 2019. Implementado sin ninguna consulta pública, el sistema provocó un rechazo inmediato. En octubre, una organización nacional de derechos civiles presentó una demanda para impugnarlo. En respuesta, el Gobierno redactó un nuevo proyecto de ley, que actualmente se encuentra en el proceso legislativo, que legalizaría el reconocimiento facial en los espacios públicos.

El sistema fue diseñado para vincularse a CONARC desde el principio. Aunque CONARC en sí no contiene fotografías de sus presuntos delincuentes, se combina con las fotografías del DNI del registro nacional. El software utiliza las imágenes de rostros de los sospechosos para buscar coincidencias en tiempo real a través de las cámaras del metro de la ciudad. Cuando el sistema detecta a una persona, alerta a la policía para que realice el arresto.

Desde entonces, el sistema ha dado lugar a numerosos arrestos erróneos, para los que la policía no tiene un protocolo de gestión establecido. Un hombre mal identificado fue detenido durante seis días y estuvo a punto de ser trasladado a una prisión de máxima seguridad antes de que finalmente se aclarara su identidad. A otro le dijeron que debía esperar que el sistema lo señalara repetidamente en el futuro a pesar de que había demostrado que no era a quien buscaba la policía. Como ayuda para resolver la confusión, le dieron un pase para mostrárselo al siguiente oficial de policía que pudiera detenerlo.

Han alerta: "Parece que no hay ningún mecanismo para corregir los errores ni en el algoritmo ni en la base de datos. Para nosotros, es una señal de que se trata de un Gobierno que ha adquirido una tecnología que no comprende en términos de implicaciones técnicas y derechos humanos".

Si todo esto no fuera lo suficientemente preocupante, añadir niños al sistema agrava mucho las cosas. Aunque el Gobierno ha negado públicamente que CONARC incluya a menores, Human Rights Watch encontró al menos 166 niños en varias versiones de la base de datos entre mayo de 2017 y mayo de 2020. A diferencia de M.G., la mayoría de ellos figuran con su nombre completo, algo ilegal. Según el derecho internacional de los derechos humanos, los niños acusados de un delito deben tener protegida su privacidad durante todo el proceso.

También a diferencia de M.G., la mayoría de estos jóvenes tenía 16 o 17 años en el momento de la introducción de sus datos, aunque, misteriosamente, también aparecen algunos de entre uno y tres años. Las edades no son los únicos errores aparentes en las entradas de los niños. Hay flagrantes erratas, detalles contradictorios y, a veces, varias identificaciones nacionales enumeradas para la misma persona. Y como los niños cambian físicamente más rápido que los adultos, sus identificaciones mediante fotografías corren más riesgo de quedar desactualizadas.

Además de esto, los sistemas de reconocimiento facial, incluso en condiciones ideales de laboratorio, funcionan bastante mal con los niños porque están entrenados y probados principalmente en adultos. El sistema de Buenos Aires no es diferente. Según los documentos oficiales, se probó solo con rostros adultos de los empleados del Ayuntamiento antes de la adquisición. Las pruebas anteriores del Gobierno de EE. UU. del algoritmo específico que se cree que utiliza Buenos Aires también sugieren que funciona peor en un factor de seis en jóvenes (de 10 a 16 años) que en adultos (de 24 a 40 años).

Todos estos factores aumentan el riesgo de que los niños acaben identificados erróneamente y arrestados por equivocación. Esto podría crear antecedentes penales injustificados, con repercusiones posiblemente duraderas para su educación y oportunidades laborales. También podría tener un impacto en su comportamiento.

"El argumento de que el reconocimiento facial produce un efecto escalofriante en la libertad de expresión se amplifica más para los niños. Uno puede imaginarse que un niño [que ha sido arrestado por error] se autocensuraría o tendría demasiado cuidado con su comportamiento en público. Y todavía es pronto para intentar descubrir los impactos psicológicos a largo plazo, cómo podría influir eso en su visión del mundo y en su mentalidad", sostiene Han.

Buenos Aires es la primera ciudad que Han ha detectado que utiliza el reconocimiento facial en directo para rastrear a niños, pero le preocupa que haya muchos otros ejemplos simplemente no se conocen. En enero, Londres (Reino Unido) anunció que integraría el reconocimiento facial en tiempo real en sus operaciones policiales. En cuestión de días, Moscú (Rusia) afirmó que había implementado un sistema similar en toda la ciudad.

Aunque aún se desconoce si estos sistemas tratan activamente de identificar a los niños, ellos ya se ven afectados. En el documental de 2020 Coded Bias, la policía de Londres detiene por error a un niño después de que el reconocimiento facial lo confunda con otra persona. No está claro si la policía estaba buscando a un menor de edad o a alguien mayor.

Incluso aquellos que no acaban detenidos están perdiendo su derecho a la privacidad. Han explica: "Me refiero a todos los niños que pasan delante de una cámara con el reconocimiento facial solo para acceder al metro".

En los debates sobre estos sistemas se suele olvidar fácilmente que los niños necesitan una atención especial. Pero ese no es el único motivo de preocupación. Han concluye: "Con el hecho de que estos niños estarían bajo ese tipo de vigilancia invasiva; aún se desconocen todas las consecuencias sociales y de derechos humanos de esta tecnología". Dicho de otra manera: lo que es malo para los niños, al fin y al cabo, es malo para todos.

Otros

  1. El peligro de que solo Microsoft pueda acceder a GPT-3

    Aunque OpenAI se fundó sin ánimo de lucro y bajo la premisa de desarrollar IA enfocada al bien de la humanidad, ha concedido acceso exclusivo a su herramienta de generación de lenguaje. La medida no hace más que concentrar el poder de la inteligencia artificial en manos de los gigantes tecnológicos

  2. ¿Qué se esconde tras el hackeo masivo a cuentas famosas de Twitter?

    A simple vista, el ataque parecía una simple estafa de Bitcoin. Pero la brecha de seguridad, provocada mediante engaños a los empleados de la red social, permitió a los ciberdelincuentes acceder a mensajes privados de personajes de gran relevancia como Joe Biden, Barack Obama, Elon Musk y Bill Gates 

  3. Este gel aislante podría cumplir el sueño de cultivar plantas en Marte

    Si se aplicara aerogel de sílice en determinadas regiones del planeta se podría aumentar su temperatura a niveles adecuados y fundir el hielo para disponer de agua líquida. Aunque la investigación es teórica, varios expertos coinciden en que podría funcionar