Google ha installato senza richiesta di consenso “Android System SafetyCore” su oltre un miliardo di cellulari Android. L’app, che consuma 2 GB di RAM, esegue la scansione di foto e video privati in background. L’app consente la classificazione dei contenuti sui dispositivi basata sull’intelligenza artificiale
“L’app eseguirà la scansione di immagini e video sul tuo telefono localmente per rilevare contenuti che potrebbe ritenere inadatti per gli utenti, quindi avviserà gli utenti o filtrerà tali contenuti. Tuttavia, secondo Google, verranno scansionate solo le immagini che condividi con l’app Messaggi”
SafetyCore (nome del pacchetto “com.google.android.safetycore”) è stato introdotto per la prima volta da Google nell’ottobre 2024, come parte di una serie di misure di sicurezza progettate per combattere le truffe e altri contenuti considerati sensibili nell’app Google Messages per Android. Gli avvisi sui contenuti sensibili di Google per l’app Messaggi sono molto simili alla funzionalità Communication Safety di Apple in iMessage, che impiega l’apprendimento automatico sul dispositivo per analizzare allegati di foto e video e determinare se una foto o un video sembrano contenere nudità.
“SafetyCore è un nuovo servizio di sistema di Google per dispositivi Android 9+ che fornisce l’infrastruttura sui dispositivi per eseguire in modo sicuro e privato la classificazione per aiutare gli utenti a rilevare contenuti indesiderati. Gli utenti hanno il controllo su SafetyCore e SafetyCore classifica contenuti specifici solo quando un’app lo richiede tramite una funzionalità abilitata facoltativamente”, ha dichiarato un portavoce dell’azienda a The Hacker News quando è stato contattato per un commento.
Il metodo ha sollevato gravi preoccupazioni sulla privacy, poiché è pronto per abusi costringendo il fornitore di servizi a cercare materiale oltre l’ambito inizialmente concordato.
“Non solo l’app si è installata sui dispositivi senza che gli utenti ne fossero a conoscenza, ma ha anche un accesso quasi illimitato all’intero sistema su tali dispositivi. Ciò apre la possibilità che Google possa accedere a quasi tutto sul tuo telefono senza la tua conoscenza e il tuo consenso e crea un pericoloso precedente per il futuro. Non ci sono misure di sicurezza per garantire che l’app non analizzi foto personali, video e altri file”, denuncia Pallav Pathak.
“Inoltre, se Google può facilmente installare un’app o un servizio sui dispositivi Android in qualsiasi momento senza aver bisogno del permesso degli utenti, non c’è garanzia che questa sarà l’unica volta che lo farà. Anche se Android System SafetyCore esegue la scansione solo per contenuti indesiderati, ha il potenziale per essere utilizzato per altri scopi. I risultati della scansione o i metadati potrebbero comunque essere inviati a Google, anche se i dati effettivi dell’utente non lo sono, il che può anche minacciare la privacy dell’utente. Allo stesso modo, la tecnologia che alimenta l’app potrebbe essere utilizzata per monitorare i contenuti
Se l’intenzione dietro l’app era quella di proteggere i minori da contenuti come immagini di nudo tramite scansione, Google avrebbe dovuto informare gli utenti prima di distribuire l’app. Apple aveva proposto una volta qualcosa di simile ed era stata pesantemente criticata per questo, il che potrebbe spiegare perché Google non ha fatto annunci relativi ad Android System SafetyCore.
Google ha fatto un annuncio sugli avvisi di contenuto sensibile nei messaggi di Google che sarebbero apparsi quando un messaggio conteneva contenuti non adatti ai bambini. Tuttavia, non ha menzionato il servizio Android System SafetyCore, che è stato scoperto dagli utenti solo quando hanno esaminato l’elenco delle app nell’app Impostazioni”.
I responsabili del sistema operativo GrapheneOS, in un post condiviso su X, hanno ribadito che SafetyCore non fornisce la scansione lato client ed è progettato principalmente per offrire modelli di apprendimento automatico sul dispositivo che possono essere utilizzati da altre applicazioni per classificare i contenuti come spam, truffa o malware.
“Classificare cose come queste non è la stessa cosa che cercare di rilevare contenuti illegali e segnalarli a un servizio”, ha affermato GrapheneOS. “Ciò violerebbe notevolmente la privacy delle persone in più modi e i falsi positivi esisterebbero comunque. Non è questo e non è utilizzabile per questo”.
Qui trovate l’app.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Intelligenza artificiale: sorveglianza con la scusa della sicurezza. I piani per il 2028
Può interessarti anche: L’id digitale entra dalla backdoor: sarà obbligatorio per i social, che saranno vietati ai minori di 16 anni in Australia …per la loro sicurezza
Per non dimenticare: Dal Green Pass al Games Pass. Polizia coreana e QrCode dai 13 anni per la “sicurezza” dei giochi olimpici a Parigi
Per non dimenticare: Intelligenza artificiale e video sorveglianza a Londra, New York, Pechino… a discapito della privacy per la sicurezza
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Seguici su X: https://x.com/Presskit_
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.