Fino a che punto la Apple Intelligence è attenta alla Privacy degli utenti?

Fino a che punto la Apple Intelligence è attenta alla Privacy degli utenti?

Oggi Apple ha annunciato aggiornamenti per tutti i suoi sistemi operativi ma ha voluto anche rimarcare una chiara posizione in termini di Privacy. Quello che in generale preoccupa dell’Intelligenza Artificiale infatti, sono proprio i possibili risvolti di questa tecnologia con l’utilizzo dei nostri dati personali, immagini, testi e quant’altro che potrebbero lasciare il dispositivo ed essere caricati su server di altre aziende per essere utilizzati con ben altre intenzioni.

Apple ha promesso di offrire agli utenti un maggiore controllo sui propri dati spiegando che la Apple Intelligence funzionerà in due modi:

Il primo sarà on-device dove i potenti processori che alimentano i dispositivi si occuperanno di tutte le operazioni senza che i dati lascino mai lo smartphone e vengano quindi condivisi al di fuori
Il secondo sarà tramite un server associato al Private Cloud Compute, che garantisce protezioni avanzate anche sul cloud.

Analizziamo meglio questi due aspetti di seguito.

Apple Intelligence

1. Integrazione On-Device:

Elemento fondante di Apple Intelligence è l’elaborazione on-device, che offre un sistema di intelligenza personale senza dover raccogliere i dati dell’utente. Nelle situazioni in cui un utente ha necessità di modelli più grandi di quanto sia possibile avere oggi in un dispositivo così piccolo da poterlo tenere in tasca, Private Cloud Compute permette ad Apple Intelligence di essere flessibile ed aumentare la capacità computazionale attingendo a modelli più grandi basati su server per gestire richieste più complesse, il tutto sempre proteggendo la privacy dell’utente.

2. Private Cloud Compute, ovvero Protezione Avanzata su Cloud:

Quando viene formulata una richiesta, Apple Intelligence valuta se è possibile elaborarla in locale sul dispositivo. Se richiede una potenza di elaborazione maggiore, ricorre a Private Cloud Compute che invierà ai server con chip Apple solo i dati strettamente necessari per gestirla. Quando si indirizza una richiesta a Private Cloud Compute, i dati vengono usati esclusivamente per elaborare tale richiesta: Apple non può accedervi né archiviarli.

I server con chip Apple sono alla base di Private Cloud Compute e garantiscono un livello di sicurezza su cloud ineguagliabile. Questa sicurezza parte dal Secure Enclave, che protegge le chiavi di crittografia fondamentali sul server, proprio come fa sull’iPhone di qualsiasi utente, mentre Secure Boot assicura che il sistema operativo del server sia firmato e verificato, come in iOS. Trusted Execution Monitor assicura che venga eseguito solo codice verificato e firmato, mentre l’attestazione permette al dispositivo di verificare in modo sicuro l’identità e la configurazione di un cluster di Private Cloud Compute prima di inviare la richiesta. Per verificare la promessa Apple di protezione della privacy, esperti indipendenti possono ispezionare il codice che gira sui server Private Cloud Compute.

Quindi resta davvero tutto privato per gli utenti?

Purtroppo le cose non stanno proprio così. Quando Apple parla di dati che non vengono memorizzati e non possono essere letti nemmeno dalla stessa azienda non mente assolutamente ma si riferisce soltanto a quando la Apple Intelligence utilizza dei modelli di linguaggio (LLM) creati da Apple e le cui richieste dell’utente riescono ad essere soddisfatte dagli stessi.

Quando invece Apple si interfaccia a servizi come Dall-E per le immagini o ChatGPT per i testi allora le cose cambiano.

Sostanzialmente con la protezione avanzata su Cloud, i dati strettamente necessari che trasmettiamo alle AI esterne passano prima per un server di Apple che li rende anonimi e poi inoltra la domanda. Quando si ottiene la risposta, avviene esattamente la stessa cosa: si passerà prima attraverso un server privato di Apple e sarà questo poi a comunicare con il nostro dispositivo.

Di base è giusto dire che “siamo al sicuro” in quanto il nostro dispositivo non comunica direttamente con server esterni ed il cloud di Apple rende tutto privato da non trasmettere le nostre informazioni personali tuttavia nel momento in cui le richieste vengono trasferite a ChatGPT, sebbene in anonimato, nulla vieterà ad OpenAI di utilizzare queste informazioni per addestrare il suo modello di linguaggio.

Anche se Apple implementa forti misure di sicurezza e privacy, una volta che i dati anonimi vengono inviati ad un servizio esterno, la possibilità che questi dati vengano memorizzati ed utilizzati per altri scopi purtroppo esiste, in base alle politiche di quel servizio esterno (in questo caso di OpenAI).

Quando Apple avrà completato “la sua versione di ChatGPT” allora le cose cambieranno e le nostre informazioni resteranno davvero private ed impossibili da leggere da parte di qualsiasi azienda, Apple compresa, ma probabilmente bisognerà attendere iOS 19 e fino ad allora dobbiamo sapere che aiuteremo OpenAI nell’addestramento di ChatGPT con le nostre richieste o informazioni, sebbene anonimizzate e non riconducibili direttamente a noi come individui.

E’ un giusto compromesso per il momento? Cosa ne pensate?