.

Computación

Qué significa la nueva tecnología de Apple contra la pornografía infantil

1

NeuralHash escaneará imágenes encriptadas en iPhones en busca de material de abuso sexual infantil. Aunque de momento solo funciona en EE. UU. y el gobierno no tendrá acceso al sistema, muchos países podrían presionar a la empresa para acceder a este tipo de tecnología en busca de otros delitos

  • por Patrick Howell O'Neill | traducido por Ana Milutinovic
  • 11 Agosto, 2021

En sus 45 años de historia, Apple ha presumido de algunos anuncios icónicos, desde el famoso anuncio del Super Bowl de 1984 para Mac hasta la agresiva campaña publicitaria de 2019 en la empresa que prometía que "lo que pasa en su iPhone se queda en su iPhone".

Pero, el pasado jueves, Apple anunció sus nuevas tecnologías para detectar materiales de abuso sexual infantil (CSAM, por sus siglas en inglés) directamente en teléfonos iPhone y, de repente, parece que no todo lo que ocurre en su iPhone siempre se queda ahí. Las nuevas y controvertidas funciones atacan al corazón de las preocupaciones sobre privacidad, vigilancia y delitos tecnológicos.

Apple asegura que estas nuevas funciones preservan la privacidad al tiempo que luchan contra el abuso infantil. Sin embargo, para los críticos, la pregunta más importante no es qué podría hacer esta tecnología en la actualidad, sino qué podría llegar a ser en el futuro.

¿La nueva tecnología de escaneo de Apple permitirá una vigilancia aún mayor en todo el mundo? ¿Los gobiernos empezarán a exigir que Apple busque todo tipo de contenido prohibido en sus países?

Apple explica que la nueva herramienta de detección, denominada NeuralHash, puede identificar imágenes de abuso sexual infantil almacenadas en un iPhone sin descifrar la imagen. La empresa también afirma que ha implementado múltiples verificaciones para reducir la posibilidad de error antes de que las imágenes se pasen al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés) y luego a las fuerzas del orden. (Por ejemplo, el escáner debe detectar varias imágenes y no solo una). Esta función se implementará en Estados Unidos a lo largo de este año.

Google, Microsoft, Dropbox y otros grandes servicios en la nube ya escanean el material que se almacena en sus servidores en busca de material de abuso infantil, por lo que la premisa general no es nueva. La diferencia consiste en que algunos de los escaneos de Apple ocurrirán en el propio iPhone, y Apple argumenta que esta es la característica que define la privacidad de la nueva tecnología.

En una rueda de prensa el pasado viernes, Apple detalló que mientras que otros servicios en la nube escaneaban casi todo lo que sus usuarios suben, el escaneo en el dispositivo de Apple solo debería enviar a la empresa el hash ilegible, el código que identifica las imágenes que representan el abuso infantil basado en la base de datos gestionada por NCMEC y no por Apple.

Apple también señala que la función solo se aplica a las personas que suben sus fotos a iCloud (las cargas automáticas son la configuración predeterminada en los iPhones, pero se pueden desactivar). Las cuentas de iCloud no están cifradas actualmente, por lo que las fuerzas del orden ya pueden verlas.

Entonces, ¿por qué Apple no hace lo mismo que otras grandes empresas de tecnología y escanea las imágenes cuando se suben en la nube en vez de hacerlo cuando todavía están en el propio teléfono? ¿Por qué construir un nuevo y complejo conjunto de tecnologías cuando podría simplemente utilizar la tecnología existente?

El próximo paso de Apple

Hay muchísimas cosas que no sabemos sobre lo que hace Apple en la actualidad y lo que vendrá después. Una teoría popular es que el anuncio de esta semana será el primero de varios pasos en los próximos meses.

La publicidad de Apple ha presumido de privacidad durante años. iPhone fue uno de los primeros dispositivos personales en cifrarse automáticamente. iMessage es una de las apps de mensajería más populares con cifrado de extremo a extremo. Pero muchos usuarios de Apple automáticamente realizan una copia de seguridad de todo en sus cuentas de iCloud, y iCloud nunca ha sido encriptado. Así que, incluso en 2019, ese famoso anuncio de la privacidad de iPhone podría haber usado un pequeño asterisco.

Durante años, los gobiernos han ejercido una enorme presión sobre todas las empresas tecnológicas, incluida Apple, para permitir a las fuerzas del orden un acceso especial a los datos que de otro modo estarían cifrados, con el fin de prevenir lo que consideran los delitos más atroces. El abuso infantil siempre está en la parte superior de esa lista, seguido de cerca por el terrorismo. La adopción pública de la encriptación por parte de Apple ha dificultado el trabajo de algunos policías, pero también ha dificultado algunos tipos de vigilancia y abuso de poder.

La gran laguna siempre ha sido iCloud. Los policías tienen que trabajar duro para acceder directamente a un iPhone, pero si la mayoría de los datos ya están en una cuenta de iCloud sin cifrar, una orden sería suficiente.

Tras el anuncio de la semana pasada, algunos expertos creen que Apple pronto anunciará que iCloud estará encriptado. Si eso pasa, pero la empresa aún puede identificar el material de abuso infantil, pasar las pruebas a las fuerzas del orden para encontrar al delincuente podría aliviar una parte de la presión política sobre los directivos de Apple.

No aliviaría toda la presión: la mayoría de los gobiernos que quieren que Apple haga más sobre el abuso infantil también quieren más acciones sobre el contenido relacionado con el terrorismo y otros delitos. Pero el abuso infantil es un importante problema que las grandes empresas tecnológicas no han podido abordar hasta la fecha.

El director del Departamento de Ciencias de la Computación de la Universidad de Illinois (EE. UU.) en Urbana-Champaign, David Forsyth, quien revisó el sistema de Apple, afirma: "El enfoque de Apple preserva la privacidad mejor que cualquier otro que conozca. En mi opinión, este sistema probablemente aumentará de forma significativa la posibilidad de encontrar a las personas que poseen o trafican [con CSAM]; esto debería ayudar a proteger a los niños. Los usuarios inofensivos experimentarían una pérdida mínima o nula de privacidad, porque los derivados visuales se revelan solo si hay suficientes coincidencias con las imágenes CSAM, y solo para las imágenes que coinciden con las CSAM conocidas. La precisión del sistema de coincidencia, combinada con el umbral, hace que sea muy poco probable que se revelen imágenes que no sean CSAM conocidas".

¿Qué pasa con WhatsApp?

Todas las grandes empresas de tecnología se enfrentan a la horrible realidad del material de abuso sexual infantil en su plataforma. Ninguna lo ha abordado como Apple.

Al igual que iMessage, WhatsApp es una plataforma de mensajería cifrada de extremo a extremo con miles de millones de usuarios. Como cualquier plataforma de ese tamaño, se enfrenta a un gran problema de abuso. el pasado viernes el CEO de WhatsApp, Will Cathcart, tuiteó: "Leí la información que Apple publicó ayer y estoy preocupado. Creo que se trata de un enfoque equivocado y un revés para la privacidad de las personas en todo el mundo. La gente ha preguntado si adoptaremos este sistema en WhatsApp. La respuesta es no".

WhatsApp incluye la posibilidad de que cualquier usuario pueda denunciar algún contenido abusivo a WhatsApp. Aunque está lejos de ser una herramienta perfecta, WhatsApp informó al NCMEC sobre más de 400.000 casos el año pasado.

Cathcart continuó: "Se trata de un sistema de vigilancia construido y operado por Apple que se podría usar muy fácilmente para escanear contenido privado en busca de cualquier cosa que la empresa o algún gobierno decidan que quieren controlar. Los países donde se venden iPhones tendrán diferentes definiciones sobre lo que es aceptable. ¿Se utilizará en China este sistema? ¿Qué contenido considerarán ilegal allí y cómo lo sabremos? ¿Cómo gestionarán las solicitudes de los gobiernos del mundo para incluir otros tipos de contenido a la lista para escaneos?"

En la reunión informativa con los periodistas, Apple enfatizó que esta nueva tecnología de escaneo se lanzaba por ahora solo en Estados Unidos. Pero continuó argumentando que tenía un historial de lucha por la privacidad y que esperaba seguir haciéndolo. De esa manera, una gran parte de todo esto se reduce a confiar en Apple.

La empresa especificó que los nuevos sistemas no se podían usar indebidamente por parte de ningún gobierno, y destacó varias veces que la opción de no participar era tan fácil como desactivar la copia de seguridad de iCloud.

A pesar de ser una de las plataformas de mensajería más populares del mundo, iMessage ha sido criticado durante mucho tiempo por carecer de la posibilidad de denuncia tan común en las redes sociales. Como resultado, Apple ha informado al NCMEC una pequeña fracción de los casos presentados por parte de las otras empresas como Facebook.

En vez de adoptar esa solución, Apple ha creado algo completamente diferente, y los resultados finales representan una pregunta abierta y preocupante para los halcones de la privacidad. Para otros, es un cambio radical muy bienvenido. En un comunicado el presidente del NCMEC, John Clark, afirmó: "La protección ampliada de Apple para los niños es algo revolucionario. La realidad es que la privacidad y la protección infantil pueden coexistir".

La gran apuesta

Una persona optimista diría que habilitar el cifrado completo de las cuentas de iCloud sin dejar de detectar el material de abuso infantil es algo bueno contra el abuso y para la privacidad, y quizás incluso una hábil acción política que mitiga la retórica contra el cifrado de los gobiernos estadounidenses, europeos, indios y chinos.

Una persona realista se preocuparía por lo que los países más poderosos del mundo harán después. Es una garantía virtual de que Apple recibirá, y probablemente ya haya recibido, llamadas de gobiernos a medida que las autoridades gubernamentales empiecen a imaginar las posibilidades de vigilancia de esta tecnología de escaneo. La presión política es una cosa, pero la regulación y el control autoritario son otra. No obstante, esa amenaza no es nueva ni específica de este sistema. Siendo una empresa con un historial de compromisos silenciosos, pero rentables con China, Apple tiene mucho trabajo por hacer para persuadir a los usuarios de su capacidad de resistirse a los gobiernos draconianos.

Todo lo anterior podría ser cierto. Los próximos acontecimientos definirán al final la nueva tecnología de Apple. Si los gobiernos empiezan a utilizar esta función para ampliar su vigilancia, será evidente que la empresa no cumple sus promesas de privacidad.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. ASML, la empresa que revolucionó la fabricación de chips y quiere seguir haciéndolo

    ‘MIT Technology Review’ se reunió con el CTO saliente, Martin van den Brink, para hablar del ascenso de la empresa a la hegemonía y de la vida y muerte de la Ley de Moore  

    Dos trabajadores de ASML pasan por delante de la máquina UVE de alta apertura numérica en Veldhoven
  2. ‘Chiplets’: el arma de China en su batalla tecnológica contra EE UU

    Al conectar varios chips menos avanzados en uno, las empresas chinas podrían eludir las sanciones impuestas por el gobierno estadounidense.

  3. Esta ciudad china quiere ser el Silicon Valley de los ‘chiplets’

    Wuxi, el centro chino del envasado de chips, está invirtiendo en la investigación de ‘chiplets’ para potenciar su papel en la industria de semiconductores