Header Ads Widget

Ticker

6/recent/ticker-posts

Apple dice que no expandirá la controvertida tecnología CSAM

Apple ha intentado desviar las críticas a su controvertido sistema de protección CSAM, pero al hacerlo ha ilustrado lo que está en juego.



Apple ha tratado de desviar las críticas a su controvertido sistema de protección CSAM , pero al hacerlo ha ilustrado  lo que está en juego .

La gran conversación
Apple anunció la semana pasada que  introduciría una colección de medidas de protección infantil dentro de iOS 15, iPad OS 15 y macOS Monterey cuando los sistemas operativos se lancen este otoño.

Entre otras protecciones, el sistema del dispositivo escanea su biblioteca de Fotos de iCloud en busca de evidencia de colecciones ilegales de Material de Abuso Sexual Infantil (CSAM). Por supuesto, es completamente apropiado proteger a los niños, pero los defensores de la privacidad siguen preocupados por la posibilidad de que el sistema de Apple se convierta en una vigilancia completa.

En un intento por mitigar las críticas, Apple ha publicado nueva información en la que intenta explicar un poco más cómo funciona la tecnología. Como se explica en este informe técnico de Apple , la tecnología convierte las imágenes de su dispositivo en un hash numérico que se puede comparar con una base de datos de imágenes CSAM conocidas a medida que las carga en Fotos de iCloud.

Haciendo un hash de eso
Si bien el análisis de la imagen se realiza en el dispositivo utilizando la tecnología hash de Apple, no todas las imágenes se marcan o escanean, solo las identificadas como CSAM. Apple argumenta que esto es en realidad una mejora en el sentido de que la compañía en ningún momento escanea toda la biblioteca.

“Las técnicas existentes implementadas por otras empresas escanean todas las fotos de los usuarios almacenadas en la nube. Esto crea un riesgo de privacidad para todos los usuarios ”, dice la nueva pregunta frecuente de la compañía. "La detección de CSAM en iCloud Photos proporciona importantes beneficios de privacidad sobre esas técnicas al evitar que Apple conozca las fotos, a menos que ambas coincidan con imágenes CSAM conocidas y estén incluidas en una cuenta de iCloud Photos que incluya una colección de CSAM conocidos".

A pesar de estas garantías, todavía existen grandes preocupaciones sobre la medida en que el sistema puede extenderse para monitorear otras formas de contenido. Después de todo, si puede convertir una colección de imágenes CSAM en datos que puedan identificarse, puede convertir cualquier cosa en datos con los que se puede escanear la información personal. El defensor de la privacidad  Edward Snowden advierte : "No se equivoquen: si pueden escanear en busca de pornografía infantil hoy, pueden escanear cualquier cosa mañana".


¿Confiarlo?
Apple dice que no tiene la intención de llevar su sistema a otros dominios. En sus preguntas frecuentes, escribe:

“Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla ”.

En la superficie eso parece tranquilizador. Pero es lógico que ahora que existe esta tecnología, aquellas naciones que quieran obligar a Apple a extender la vigilancia en el dispositivo para asuntos más allá de CSAM usarán todas las armas que tengan para forzar el problema.

"Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido", advirtió Electronic Frontier Foundation .

Prevenir esto será una lucha. Lo que significa que Apple tiene una pelea por delante.

La guerra de la privacidad ha comenzado
Puede ser que esta sea una pelea que Apple quiera tener. Después de todo, sabemos que ha tomado muchas medidas importantes para proteger la privacidad del usuario en todos sus ecosistemas y también sabemos que apoya cambios en la ley para proteger la privacidad en línea .

"Ciertamente es hora, no solo de una ley de privacidad integral aquí en los EE. UU., Sino también de leyes mundiales y nuevos acuerdos internacionales que consagran los principios de minimización de datos, conocimiento del usuario, acceso del usuario y seguridad de los datos en todo el mundo", dijo el  director ejecutivo Tim. Cook dijo este año .

Se podría argumentar que la introducción de alto perfil de las medidas de protección infantil de Apple ha provocado una conversación más amplia sobre los derechos y la privacidad en un mundo en línea y conectado. La única forma de evitar que el sistema se extienda más allá de CSAM es ayudar a Apple a resistir la presión para hacerlo.

En ausencia de dicho apoyo, es poco probable que Apple prevalezca contra todos los gobiernos por sí solos. En el caso de que la empresa no reciba apoyo, la pregunta es cuándo , no si, se verá obligada a ceder. Y, sin embargo, los gobiernos aún pueden llegar a un acuerdo sobre la privacidad en línea. 

Las apuestas son altas. El riesgo es que los ladrillos a lo largo del camino iluminado por el sol hacia la justicia que  Cook ha tratado de colocar durante mucho tiempo pueden convertirse en ladrillos en la pared para evitar que se lleve a cabo dicho viaje.

El beneficio es que un esfuerzo determinado puede permitir la creación de marcos que permitan el final de ese camino.

La controversia refleja lo rocoso que parece haberse vuelto ese camino.

Publicar un comentario

0 Comentarios