Apple offre ricompense fino a 1 milione di dollari a coloro che troveranno vulnerabilità nella sua AI

Apple offre ricompense fino a 1 milione di dollari a coloro che troveranno vulnerabilità nella sua AI

Apple ha annunciato una nuova iniziativa di sicurezza per il Private Cloud Compute (PCC), parte essenziale della Apple Intelligence. Con questa mossa, l’azienda invita esperti di sicurezza e di privacy di tutto il mondo a verificare l’affidabilità del sistema tramite il programma Apple Security Bounty.

Test della sicurezza e accesso pubblico

Il PCC è stato progettato per garantire sicurezza e privacy nelle operazioni di intelligenza artificiale. Dopo una fase iniziale di test con auditor esterni, Apple ha reso pubblico l’accesso alle risorse necessarie per l’analisi del sistema, pubblicando una guida dettagliata sul Private Cloud Compute Security Guide.

Virtual Research Environment (VRE) e codice sorgente

Apple ha sviluppato un Virtual Research Environment (VRE) che consente ai ricercatori di analizzare il PCC direttamente dai loro Mac. Questo ambiente virtuale, disponibile su macOS Sequoia 15.1, include una replica del nodo PCC e strumenti avanzati per testarne la sicurezza. Inoltre, Apple ha rilasciato parte del codice sorgente su GitHub per promuovere trasparenza e collaborazione con la comunità di sicurezza.

Premi del programma Apple Security Bounty

L’Apple Security Bounty Program è stato ampliato per includere il Private Cloud Compute, offrendo ricompense fino a 1 milione di dollari per chi scopre vulnerabilità significative. Le categorie premiate includono attacchi remoti, accesso non autorizzato ai dati, e l’esecuzione di codice non autenticato.

Trasparenza per AI e Privacy

Apple ha dichiarato che il PCC rappresenta un nuovo standard di trasparenza per i sistemi AI basati su cloud, con l’obiettivo di costruire una piattaforma sicura e rispettosa della privacy.