Header Ads Widget

Ticker

6/recent/ticker-posts

Apple da marcha atrás a los controvertidos planes de seguridad infantil

La compañía ahora planea tomar unos meses más para recopilar información y realizar mejoras antes de lanzar las funciones, lo que provocó el fuego de los defensores de la privacidad.


En un anuncio sorpresa del viernes, Apple dijo que tomará más tiempo mejorar sus controvertidas herramientas de seguridad infantil antes de presentarlas.

Se buscan más comentarios
La compañía dice que planea obtener más comentarios y mejorar el sistema, que tenía tres componentes clave : escaneo de fotos de iCloud en busca de material CSAM, escaneo de mensajes en el dispositivo para proteger a los niños y sugerencias de búsqueda diseñadas para proteger a los niños.

Desde que Apple anunció las herramientas, se ha enfrentado a un aluvión de críticas de personas y grupos de derechos humanos preocupados de todo el mundo . El gran argumento que la compañía parecía tener un problema para abordar parece haber sido el potencial de los gobiernos represivos para obligar a Apple a monitorear más que CSAM.

¿Quién vigila a los vigilantes?
Edward Snowden, acusado de filtrar información de inteligencia estadounidense y ahora defensor de la privacidad, advirtió en Twitter : "No se equivoquen: si pueden buscar pornografía infantil hoy, pueden buscar cualquier cosa mañana".

Los críticos dijeron que estas herramientas podrían explotarse o ampliarse para respaldar la censura de ideas o amenazar el libre pensamiento. La respuesta de Apple, que no ampliaría el sistema, fue vista como un poco ingenua.

“Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro. Seamos claros, esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla ”, dijo la empresa.

"Todo lo que se necesitaría para ampliar la estrecha puerta trasera que Apple está construyendo es una expansión de los parámetros de aprendizaje automático para buscar tipos adicionales de contenido", respondió la  Electronic Frontier Foundation.


Apple escucha a sus usuarios (en el buen sentido)
En un comunicado ampliamente difundido a los medios de comunicación (el viernes antes de un feriado en Estados Unidos, cuando a veces se publican malas noticias) sobre la suspensión, Apple dijo:

"Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica".

Es un movimiento que la empresa tuvo que tomar. A mediados de agosto, más de 90 ONG se pusieron en contacto con la empresa en una carta abierta pidiendo que reconsiderara. Esa carta fue firmada por Liberty, Big Brother Watch. ACLU, Center for Democracy & Technology, Center for Free Expression, EFF, ISOC, Privacy International y muchos más.

El diablo en los detalles
Las organizaciones advirtieron de varias debilidades  en las propuestas de la empresa. Uno que trasciende mucho: que el sistema mismo puede ser abusado por adultos abusivos.

"Los jóvenes LGBTQ + en cuentas familiares con padres poco comprensivos están particularmente en riesgo", escribieron. "Como resultado de este cambio, iMessages ya no brindará confidencialidad y privacidad a esos usuarios".

También persiste la preocupación de que el sistema propuesto por Apple pueda ampliarse. Sharon Bradford Franklin, codirectora del CDT Security & Surveillance Project, advirtió que los gobiernos “exigirán que Apple busque y bloquee imágenes de abusos a los derechos humanos, protestas políticas y otro contenido que debe protegerse como libre expresión, que forma el columna vertebral de una sociedad libre y democrática ”.


Los defensores de Apple dijeron que lo que Apple había estado tratando de lograr era mantener la privacidad general de los datos del usuario mientras creaba un sistema que solo podía captar contenido ilegal. También señalaron los distintos dispositivos de seguridad que la empresa incorporó a su sistema.

Esos argumentos no funcionaron, y los ejecutivos de Apple seguramente se dieron cuenta del mismo tipo de comentarios en las redes sociales que vi, lo que representaba una profunda desconfianza en las propuestas.

¿Qué pasa después?

La declaración de Apple no dijo. Pero dado que la compañía ha pasado semanas desde el anuncio reuniéndose con los medios y grupos interesados ​​de todos sus mercados sobre este asunto, parece lógico que la segunda iteración de sus herramientas de protección infantil pueda abordar algunas de las preocupaciones.


Publicar un comentario

0 Comentarios