Header Ads Widget

Ticker

6/recent/ticker-posts

El plan de Apple para escanear iPhones de EE. UU. Genera banderas rojas de privacidad

Una vez que busca una cosa, puede buscar cualquier cosa.


Apple ha anunciado planes para escanear iPhones en busca de imágenes de abuso infantil , lo que genera preocupaciones inmediatas con respecto a la privacidad y la vigilancia del usuario con la medida.

¿Se ha convertido el iPhone de Apple en un iSpy?
Apple dice que su sistema está automatizado, no escanea las imágenes reales, utiliza algún tipo de sistema de datos hash para identificar casos conocidos de materiales de abuso sexual infantil (CSAM) y dice que tiene algunas cajas de seguridad para proteger la privacidad.

Los defensores de la privacidad advierten que ahora que ha creado un sistema de este tipo, Apple está en un camino difícil hacia una extensión inexorable de escaneo e informes de contenido en el dispositivo que podrían, y probablemente, serán abusados ​​por algunas naciones.

Qué está haciendo el sistema de Apple
Hay tres elementos principales en el sistema, que estarán al acecho dentro de iOS 15, iPadOS 15 y macOS Monterey cuando salgan a la venta a finales de este año.

Escaneando tus imágenes
El sistema de Apple escanea todas las imágenes almacenadas en iCloud Photos para ver si coinciden con la base de datos CSAM del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).

Las imágenes se escanean en el dispositivo utilizando una base de datos de hashes de imágenes CSAM conocidas proporcionadas por el NCMEC y otras organizaciones de seguridad infantil. Apple transforma aún más esta base de datos en un conjunto ilegible de hash que se almacena de forma segura en los dispositivos de los usuarios.

Cuando una imagen se almacena en Fotos de iCloud, se lleva a cabo un proceso de coincidencia. En el caso de que una cuenta cruce un umbral de múltiples instancias de contenido CSAM conocido, Apple recibe una alerta. Si recibe una alerta, los datos se revisan manualmente, la cuenta se deshabilita y se informa al NCMEC.

Sin embargo, el sistema no es perfecto. La compañía dice que hay menos de uno en un billón de posibilidades de marcar incorrectamente una cuenta. Apple tiene más de mil millones de usuarios, lo que significa que hay más de una probabilidad de 1 / 1,000 de que alguien sea identificado incorrectamente cada año. Los usuarios que sientan que se les ha marcado por error pueden apelar.

Las imágenes se escanean en el dispositivo.

Escaneando sus mensajes
El sistema de Apple utiliza el aprendizaje automático en el dispositivo para escanear imágenes en los mensajes enviados o recibidos por menores en busca de material sexualmente explícito, advirtiendo a los padres si se identifican tales imágenes. Los padres pueden habilitar o deshabilitar el sistema, y ​​cualquier contenido recibido por un niño se verá borroso.

Si un niño intenta enviar contenido sexualmente explícito, se le advertirá y se podrá informar a los padres. Apple dice que no tiene acceso a las imágenes, que se escanean en el dispositivo.

Mirando lo que buscas
La tercera parte consta de actualizaciones de Siri y Search. Apple dice que estos ahora proporcionarán a padres e hijos información ampliada y ayuda si se encuentran con situaciones inseguras. Siri y Search también intervendrán cuando las personas realicen lo que se considera consultas de búsqueda relacionadas con CSAM, lo que explica que el interés en este tema es problemático.


Apple nos informa amablemente que su programa es "ambicioso" y que los esfuerzos "evolucionarán y expandirán con el tiempo".

Un poco de datos técnicos
La compañía ha publicado un extenso documento técnico que explica un poco más sobre su sistema. En el documento, se esfuerza por asegurar a los usuarios que no aprende nada sobre las imágenes que no coinciden con la base de datos.

La tecnología de Apple, llamada NeuralHash, analiza imágenes CSAM conocidas y las convierte en un número único específico para cada imagen. Sólo otra imagen que parezca casi idéntica puede producir el mismo número; por ejemplo, las imágenes que difieren en tamaño o calidad transcodificada seguirán teniendo el mismo valor de NeuralHash.

A medida que se agregan imágenes a Fotos de iCloud, se comparan con esa base de datos para identificar una coincidencia.

Si se encuentra una coincidencia, se crea un vale de seguridad criptográfica que, según tengo entendido, también permitirá a un revisor de Apple descifrar y acceder a la imagen ofensiva en caso de que se alcance el umbral de dicho contenido y se requiera una acción.

“Apple puede aprender la información de imagen relevante solo una vez que la cuenta tiene más de un número umbral de coincidencias de CSAM, e incluso entonces, solo para las imágenes coincidentes”, concluye el documento.

Apple no es único, pero el análisis en el dispositivo puede ser
Apple no es el único que debe compartir imágenes de CSAM con las autoridades. Por ley, cualquier empresa estadounidense que encuentre dicho material en sus servidores debe trabajar con las fuerzas del orden para investigarlo. Facebook, Microsoft y Google ya tienen tecnologías que escanean dichos materiales que se comparten por correo electrónico o plataformas de mensajería.

La diferencia entre esos sistemas y este es que el análisis se realiza en el dispositivo, no en los servidores de la empresa.

Apple siempre ha afirmado que sus plataformas de mensajería están encriptadas de extremo a extremo, pero esto se convierte en una pequeña afirmación semántica si el contenido del dispositivo de una persona se escanea antes de que se lleve a cabo la encriptación.

La protección infantil es, por supuesto, algo que apoya la mayoría de las personas racionales. Pero lo que preocupa a los defensores de la privacidad es que algunos gobiernos ahora pueden intentar obligar a Apple a buscar otros materiales en los dispositivos de las personas.

Un gobierno que prohíbe la homosexualidad podría exigir que ese contenido también sea monitoreado, por ejemplo. ¿Qué sucede si un niño adolescente en una nación que prohíbe la actividad sexual no binaria le pide a Siri que le ayude a salir del armario? ¿Y qué pasa con los dispositivos discretos de escucha ambiental, como los HomePods? No está claro que el componente relacionado con la búsqueda de este sistema se esté implementando allí, pero es posible que lo esté.

Y aún no está claro cómo Apple podrá protegerse contra tal avance de la misión.

Los defensores de la privacidad están extremadamente alarmados
La mayoría de los defensores de la privacidad sienten que existe una posibilidad significativa de que la misión se desvanezca inherente a este plan, que no hace nada para mantener la fe en el compromiso de Apple con la privacidad del usuario.

¿Cómo puede un usuario sentir que la privacidad está protegida si el dispositivo mismo los está espiando y no tienen control sobre cómo?

La Electronic Frontier Foundation (EFF) advierte que este plan crea efectivamente una puerta trasera de seguridad.

“Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido, o un ajuste de los indicadores de configuración para escanear, no solo las cuentas de los niños, sino de cualquier persona. Esa no es una pendiente resbaladiza; ese es un sistema completamente construido que solo espera la presión externa para hacer el más mínimo cambio ”.

“Cuando Apple desarrolla una tecnología que es capaz de escanear contenido encriptado, no se puede simplemente decir: 'Bueno, me pregunto qué haría el gobierno chino con esa tecnología'. No es teórico ”, advirtió el profesor de John Hopkins,  Matthew Green .

Argumentos alternativos
Hay otros argumentos. Uno de los más convincentes es que los servidores de los ISP y los proveedores de correo electrónico ya están escaneados en busca de dicho contenido, y que Apple ha construido un sistema que minimiza la participación humana y solo marca un problema en caso de que identifique múltiples coincidencias entre la base de datos CSAM y contenido en el dispositivo.

No hay duda de que los niños corren peligro.

De los casi 26,500 fugitivos reportados al NCMEC en 2020, uno de cada seis probablemente fue víctima de tráfico sexual infantil. La CyberTipline de la organización, (a la que imagino que Apple está conectada en este caso) recibió más de 21,7 millones de informes relacionados con alguna forma de CSAM en 2020.

John Clark, presidente y director ejecutivo de NCMEC, dijo : “Con tanta gente que usa los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños que están siendo atraídos en línea y cuyas horribles imágenes están circulando en CSAM. En el Centro Nacional para Niños Desaparecidos y Explotados sabemos que este crimen solo puede combatirse si somos firmes en nuestra dedicación a proteger a los niños. Solo podemos hacer esto porque los socios tecnológicos, como Apple, dan un paso adelante y dan a conocer su dedicación ". 

Otros dicen que al crear un sistema para proteger a los niños contra delitos tan atroces, Apple está eliminando un argumento que algunos podrían usar para justificar las puertas traseras de los dispositivos en un sentido más amplio.

La mayoría de nosotros estamos de acuerdo en que los niños deben ser protegidos y, al hacerlo, Apple ha erosionado ese argumento que algunos gobiernos represivos podrían usar para forzar las cosas. Ahora debe oponerse a cualquier infiltración misionera por parte de tales gobiernos.

Ese último desafío es el mayor problema, dado que Apple, cuando se le presiona, siempre seguirá las leyes de los gobiernos de las naciones en las que opera .

“No importa cuán bien intencionadas sean, Apple está implementando vigilancia masiva en todo el mundo con esto”, advirtió el destacado defensor de la privacidad  Edward Snowden . Si pueden escanear en busca de CSAM hoy, "podrán escanear cualquier cosa mañana".


Publicar un comentario

0 Comentarios