Apple svela le ragioni dietro la sospensione del progetto CSAM

Apple svela le ragioni dietro la sospensione del progetto CSAM

Apple ha fornito una spiegazione dettagliata, la più completa fino ad ora, riguardo alla decisione dello scorso anno di abbandonare il controverso piano per la rilevazione di materiale noto di abuso sessuale su minori (CSAM) conservato nelle Foto di iCloud.

La dichiarazione di Apple, condivisa con Wired, è stata rilasciata in risposta alla richiesta del gruppo per la sicurezza dei minori “Heat Initiative” di “rilevare, segnalare ed eliminare” il CSAM da iCloud e di offrire agli utenti più strumenti per segnalare tali contenuti all’azienda.

“Il materiale di abuso sessuale su minori è riprovevole e siamo impegnati a interrompere la catena di coercizione e influenza che rende i minori suscettibili ad esso”, ha scritto Erik Neuenschwander, direttore della privacy degli utenti e della sicurezza dei minori di Apple, nella risposta dell’azienda a Heat Initiative.

Tuttavia, ha aggiunto che dopo aver collaborato con un’ampia gamma di ricercatori della privacy e della sicurezza, gruppi per i diritti digitali e sostenitori della sicurezza dei minori, l’azienda ha concluso che non poteva procedere con lo sviluppo di un meccanismo di scansione CSAM, nemmeno uno costruito specificamente per preservare la privacy.

“La scansione dei dati di iCloud conservati privatamente di ogni utente creerebbe nuovi vettori di minaccia per i ladri di dati da trovare e sfruttare”, ha scritto Neuenschwander. “Introdurrebbe anche il potenziale per un’insidiosa pendenza di conseguenze non intenzionali. La scansione di un tipo di contenuto, ad esempio, apre la porta alla sorveglianza di massa e potrebbe creare il desiderio di cercare altri sistemi di messaggistica criptata attraverso diversi tipi di contenuti”.

Nell’agosto 2021, Apple aveva annunciato piani per tre nuove funzionalità per la sicurezza dei minori, tra cui un sistema per rilevare immagini CSAM note conservate in Foto di iCloud, la funzionalità Communication Safety che sfoca le immagini sessualmente esplicite nell’app Messaggi e risorse per la lotta all’abuso minorile per Siri. Communication Safety è stata rilasciata per tutti nel dicembre 2021, ma la rilevazione di CSAM non è mai stata implementata.

Inizialmente, Apple aveva dichiarato che la rilevazione di CSAM sarebbe stata implementata in un aggiornamento di iOS 15 e iPadOS 15 entro la fine del 2021, ma l’azienda ha rinviato la funzionalità in base ai “feedback da parte dei clienti, dei gruppi di difesa, dei ricercatori e di altri”. I piani erano stati criticati da una vasta gamma di individui e organizzazioni, tra cui ricercatori di sicurezza, l’Electronic Frontier Foundation (EFF), politici, gruppi di policy, ricercatori universitari e persino alcuni dipendenti di Apple.

L’ultima risposta di Apple all’argomento giunge in un momento in cui il dibattito sulla crittografia è stato riacceso dal governo del Regno Unito, che sta considerando piani per modificare la legislazione sulla sorveglianza che richiederebbe alle aziende tecnologiche di disabilitare funzionalità di sicurezza come la crittografia end-to-end senza informare il pubblico.

Apple ha dichiarato che ritirerà servizi come FaceTime e iMessage nel Regno Unito se la legislazione dovesse essere approvata nella sua forma attuale.