Apple presenta planes para escanear iPhones estadounidenses en busca de imágenes de abuso sexual infantil

Apple comenzará a escanear los dispositivos de sus clientes estadounidenses en busca de material conocido de abuso sexual infantil (CSAM) a finales de este año, pero ya se enfrenta a la resistencia de los defensores de la privacidad y la seguridad.

La herramienta de detección de CSAM es una de las tres nuevas medidas de seguridad infantil que está introduciendo Apple, incluida la supervisión de las comunicaciones de los niños con aprendizaje automático en busca de signos de desnudez u otro contenido sexualmente explícito, así como la actualización de Search y Siri para intervenir cuando los usuarios realicen consultas relacionadas con CSAM. .

En su anuncio, Apple dijo que la nueva herramienta de detección permitirá a la compañía reportar instancias de CSAM al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que trabaja en colaboración con las fuerzas del orden en los EE. UU.

Apple dijo que en lugar de escanear imágenes en la nube, el sistema realizaría una comparación en el dispositivo con una base de datos de hashes de imágenes CSAM conocidos proporcionados por NCMEC y otras organizaciones de seguridad infantil, y transformaría esta base de datos en un “conjunto ilegible de hashes”. para almacenarse de forma segura en los dispositivos de los usuarios.

“Antes de que una imagen se almacene en iCloud Photos, se realiza un proceso de comparación en el dispositivo para esa imagen con los hashes CSAM conocidos”, dijo la compañía. “Este proceso de emparejamiento está impulsado por una tecnología criptográfica denominada intersección de conjuntos privados, que determina si hay un emparejamiento sin revelar el resultado.

“El dispositivo crea un vale de seguridad criptográfico que codifica el resultado de la coincidencia junto con datos adicionales encriptados sobre la imagen. Este cupón se carga en Fotos de iCloud junto con la imagen “.

Si hay una coincidencia lo suficientemente fuerte entre una foto escaneada y una imagen conocida de abuso infantil, Apple dijo que revisaría manualmente cada informe para confirmar la coincidencia, antes de deshabilitar la cuenta del usuario y notificar al NCMEC.

“Esta nueva tecnología innovadora permite a Apple proporcionar información valiosa y procesable al NCMEC y a las fuerzas del orden público con respecto a la proliferación de CSAM conocido”, dijo. “Y lo hace a la vez que proporciona importantes beneficios de privacidad sobre las técnicas existentes, ya que Apple solo se entera de las fotos de los usuarios si tienen una colección de CSAM conocido en su cuenta de Fotos de iCloud. Incluso en estos casos, Apple solo aprende sobre imágenes que coinciden con CSAM conocido “.

Más contenido para leer:  Annual Security Serious Awards nominations announced

John Clark, presidente y director ejecutivo de NCMEC, dijo que las protecciones ampliadas de Apple para los niños serían un “cambio de juego”, y agregó: “Con tanta gente que usa los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños”.

Aunque la nueva función se utilizará inicialmente para realizar el escaneo de fotos almacenadas en la nube desde el lado del dispositivo, algunos expertos en seguridad y privacidad están preocupados por cómo se podría usar o reutilizar la tecnología.

Matthew Green, investigador de criptografía de la Universidad Johns Hopkins, Tuiteó: “Eventualmente, podría ser un ingrediente clave para agregar vigilancia a los sistemas de mensajería encriptada. La capacidad de agregar sistemas de escaneo como este a E2E [end-to-end] Los sistemas de mensajería han sido una de las principales preguntas de las fuerzas del orden en todo el mundo “.

Añadió: “La forma en que Apple está haciendo este lanzamiento, comenzará con fotos que no sean de E2E y que la gente ya haya compartido con la nube. Así que no ‘daña’ la privacidad de nadie. Pero hay que preguntarse por qué alguien desarrollaría un sistema como este si el objetivo no era escanear fotos E2E “.

La Electronic Frontier Foundation (EFF) compartió sentimientos similares, diciendo: “Apple planea construir una puerta trasera en su sistema de almacenamiento de datos y su sistema de mensajería. Pero esa elección tendrá un alto precio para la privacidad general del usuario.

“Apple puede explicar en detalle cómo su implementación técnica preservará la privacidad y la seguridad en su puerta trasera propuesta, pero al final del día, incluso una puerta trasera minuciosamente documentada, cuidadosamente pensada y de alcance limitado sigue siendo una puerta trasera”.

Más contenido para leer:  La implementación de Wi-Fi 6 / 6E se difundirá en 2022

EFF agregó que, al final del día, la herramienta de detección de CSAM significa que todas las fotos en un dispositivo tendrían que ser escaneadas, disminuyendo así la privacidad.

También dijo que en relación con el monitoreo de las comunicaciones de los niños en busca de desnudos u otro contenido sexualmente explícito, Apple está abriendo la puerta a abusos más amplios, porque todo lo que se necesitaría es una expansión de los parámetros del aprendizaje automático o un ajuste de las banderas de configuración para busque otros tipos de contenido.

“Esa no es una pendiente resbaladiza, es un sistema completamente construido que solo espera que la presión externa haga el más mínimo cambio”, dijo EFF.

Adam Leon Smith, presidente de BCS, el grupo de pruebas de software del Chartered Institute for IT, dijo que aunque las medidas de Apple parecen una buena idea en la superficie, ya que mantienen la privacidad mientras detectan la explotación, es imposible construir un sistema que solo funcione para niños. imágenes de abuso.

“Es fácil imaginar que Apple se verá obligada a utilizar la misma tecnología para detectar memes políticos o mensajes de texto”, dijo Smith.

“Básicamente, esto rompe la promesa del cifrado de extremo a extremo, que es exactamente lo que quieren muchos gobiernos, excepto por sus propios mensajes, por supuesto.

“Tampoco será muy difícil crear falsos positivos. Imagínese si alguien le envía una imagen aparentemente inocua en Internet que termina siendo descargada y revisada por Apple y marcada como abuso infantil. Esa no será una experiencia agradable.

“A medida que los proveedores de tecnología continúan degradando el cifrado para las masas, los delincuentes y las personas con contenido legítimamente sensible simplemente dejarán de usar sus servicios. Es trivial cifrar sus propios datos sin depender de Apple, Google y otros grandes proveedores de tecnología “.

Otros también han advertido que, aunque están de acuerdo en que prevenir la propagación de CSAM es algo bueno, los gobiernos podrían reutilizar las tecnologías que se están introduciendo en el futuro para fines más nefastos.

Más contenido para leer:  Microsoft muestra un crecimiento que revienta la inflación, impulsado por la adopción de la nube

Chris Hauk, un defensor de la privacidad del consumidor en Pixel Privacy, dijo: “Se podría abusar de dicha tecnología si se coloca en manos del gobierno, lo que lleva a su uso para detectar imágenes que contengan otros tipos de contenido, como fotos tomadas en demostraciones y otros tipos de reuniones. Esto podría llevar a que el gobierno tome medidas drásticas contra la libertad de expresión de los usuarios y se utilice para reprimir las opiniones y el activismo ‘no aprobados’ ”.

Sin embargo, Paul Bischoff, un defensor de la privacidad en Comparitech, adoptó una opinión diferente, argumentando que si bien existen implicaciones de privacidad, el enfoque de Apple equilibra la privacidad con la seguridad de los niños.

“El sistema de hash permite a Apple escanear el dispositivo de un usuario en busca de imágenes que coincidan con las de una base de datos de materiales conocidos de abuso infantil”, dijo. “Puede hacer esto sin ver o almacenar las fotos del usuario, lo que mantiene su privacidad excepto cuando se encuentra una foto infractora en el dispositivo.

“El proceso de hash toma una foto y la encripta para crear una cadena única de números y dígitos, llamada hash. Apple ha codificado todas las fotos en la base de datos de abuso infantil de las fuerzas del orden. En los iPhones y iPads de los usuarios, ese mismo proceso de hash se aplica a las fotos almacenadas en el dispositivo. Si alguno de los valores hash resultantes coincide, Apple sabe que el dispositivo contiene pornografía infantil “.

Pero Bischoff dijo que todavía existen peligros y que el uso de la tecnología debe estar “estrictamente limitado en su alcance para proteger a los niños” y no debe usarse para escanear los dispositivos de los usuarios en busca de otras fotos.

“Si las autoridades están buscando a alguien que haya publicado una foto específica en las redes sociales, por ejemplo, Apple posiblemente podría escanear las fotos de todos los usuarios de iPhone para esa imagen específica”, agregó.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales