Gli occhi del mondo e dell’intelligenza artificiale sulle Olimpiadi. La sorveglianza Ai scarsamente regolamentata offre “il potenziale enorme per ulteriori analisi dei dati e invasioni della privacy”, Anne Toomey McKenna

“Non saranno solo gli occhi del mondo a guardare. Anche i sistemi di intelligenza artificiale staranno a guardare.

Le aziende governative e private utilizzeranno strumenti avanzati di intelligenza artificiale e altre tecnologie di sorveglianza per condurre una sorveglianza pervasiva e persistente prima, durante e dopo i Giochi”, spiega Anne Toomey McKenna è co-presidente dell’Institute for Electrical and Electronics Engineers (IEEE)-Artificial Intelligence Policy Committee (AIPC) degli Stati Uniti. “Il palcoscenico olimpico mondiale e il pubblico internazionale pongono rischi crescenti per la sicurezza, così significativi che negli ultimi anni le autorità e i critici hanno descritto le Olimpiadi come “la più grande operazione di sicurezza del mondo al di fuori della guerra”.

Il governo francese, di pari passo con il settore tecnologico privato, ha sfruttato la legittima esigenza di maggiore sicurezza come motivo per implementare strumenti di sorveglianza e raccolta dati tecnologicamente avanzati. I suoi piani di sorveglianza per far fronte a tali rischi, compreso l’uso controverso della videosorveglianza sperimentale con intelligenza artificiale, sono così estesi che il Paese ha dovuto modificare le sue leggi per rendere legale la sorveglianza pianificata.

Il piano va oltre i nuovi sistemi di videosorveglianza AI. Secondo alcune notizie, l’ufficio del primo ministro ha negoziato un decreto provvisorio classificato per consentire al governo di potenziare in modo significativo gli strumenti tradizionali e clandestini di sorveglianza e raccolta di informazioni per tutta la durata dei Giochi. Questi includono intercettazioni telefoniche; raccolta di geolocalizzazione, comunicazioni e dati informatici; e acquisire maggiori quantità di dati visivi e audio.

Un’e-mail settimanale con analisi basate sull’evidenza dei migliori studiosi europei

Ricevi la nostra newsletter
Una coppia di cilindri metallici orizzontali in primo piano e un gruppo di persone in giacca e cravatta e uniformi militari sullo sfondo
Il presidente francese Emmanuel Macron esamina le telecamere di sorveglianza in preparazione alle Olimpiadi di Parigi. Christophe Petit Tesson/AFP tramite Getty Images
Sono un professore di diritto e avvocato e faccio ricerche, insegno e scrivo su privacy, intelligenza artificiale e sorveglianza. Fornisco inoltre indicazioni legali e politiche su questi argomenti ai legislatori e ad altri soggetti. L’aumento dei rischi per la sicurezza può richiedere e richiede una maggiore sorveglianza. Quest’anno, la Francia ha dovuto affrontare preoccupazioni circa le sue capacità di sicurezza olimpica e minacce credibili legate agli eventi sportivi pubblici.

Le misure preventive dovrebbero tuttavia essere proporzionali ai rischi. A livello globale, i critici sostengono che la Francia sta utilizzando le Olimpiadi come una presa di potere di sorveglianza e che il governo utilizzerà questa giustificazione di sorveglianza “eccezionale” per normalizzare la sorveglianza statale a livello sociale.

Allo stesso tempo, esistono legittime preoccupazioni riguardo ad una sorveglianza adeguata ed efficace per la sicurezza. Negli Stati Uniti, ad esempio, la nazione si chiede come la sorveglianza di sicurezza dei servizi segreti non sia riuscita a prevenire il tentativo di omicidio dell’ex presidente Donald Trump il 13 luglio 2024.

Sorveglianza di massa basata sull’intelligenza artificiale

Grazie alle leggi sulla sorveglianza recentemente ampliate, le autorità francesi hanno collaborato con le società di intelligenza artificiale Videtics, Orange Business, ChapsVision e Wintics per implementare una vasta videosorveglianza con intelligenza artificiale. Hanno utilizzato la sorveglianza basata sull’intelligenza artificiale durante i principali concerti, eventi sportivi e nelle stazioni della metropolitana e dei treni durante i periodi di utilizzo intenso, incluso un concerto di Taylor Swift e il Festival di Cannes. Funzionari francesi hanno affermato che questi esperimenti di sorveglianza dell’intelligenza artificiale sono andati bene e che “le luci sono verdi” per usi futuri.

Il software AI in uso è generalmente progettato per segnalare determinati eventi come cambiamenti nelle dimensioni e nel movimento della folla, oggetti abbandonati, presenza o uso di armi, un corpo a terra, fumo o fiamme e alcune violazioni del codice stradale. L’obiettivo è che i sistemi di sorveglianza rilevino immediatamente, in tempo reale, eventi come una folla in aumento sorvegliare un cancello o una persona che lascia uno zaino all’angolo di una strada affollata e allertare il personale di sicurezza. Segnalare questi eventi sembra un uso logico e sensato della tecnologia.

Ma le vere questioni legali e di privacy derivano dal modo in cui questi sistemi funzionano e vengono utilizzati. Quanti e quali tipi di dati devono essere raccolti e analizzati per segnalare questi eventi? Quali sono i dati di addestramento dei sistemi, i tassi di errore e le prove di parzialità o inesattezza? Cosa viene fatto con i dati dopo che sono stati raccolti e chi può accedervi? C’è poco in termini di trasparenza per rispondere a queste domande. Nonostante le misure di salvaguardia volte a prevenire l’uso di dati biometrici in grado di identificare le persone, è possibile che i dati di addestramento raccolgano queste informazioni e i sistemi possano essere adattati per utilizzarle.

Dando a queste aziende private l’accesso a migliaia di videocamere già dislocate in tutta la Francia, sfruttando e coordinando le capacità di sorveglianza delle compagnie ferroviarie e degli operatori dei trasporti e consentendo l’uso di droni dotati di telecamere, la Francia autorizza e sostiene legalmente queste aziende a testare e formare Software di intelligenza artificiale sui suoi cittadini e visitatori.

Sorveglianza di massa legalizzata

Sia la necessità che la pratica della sorveglianza governativa alle Olimpiadi non sono una novità. Le preoccupazioni per la sicurezza e la privacy alle Olimpiadi invernali del 2022 a Pechino erano così elevate che l’FBI ha invitato “tutti gli atleti” a lasciare i cellulari personali a casa e a utilizzare solo un telefono prepagato mentre si trovavano in Cina a causa dell’estremo livello di sorveglianza governativa.

La Francia, tuttavia, è uno stato membro dell’Unione Europea. Il regolamento generale sulla protezione dei dati dell’UE è una delle leggi sulla privacy dei dati più severe al mondo e l’AI Act dell’UE sta guidando gli sforzi per regolamentare gli usi dannosi delle tecnologie di intelligenza artificiale. In quanto membro dell’UE, la Francia deve seguire la legislazione dell’UE.

La Francia ha aperto la strada legalmente per espandere l’uso dell’intelligenza artificiale nella sorveglianza dei luoghi pubblici.
In preparazione alle Olimpiadi, nel 2023 la Francia ha promulgato la legge n. 2023-380, un pacchetto di leggi per fornire un quadro giuridico per le Olimpiadi del 2024. Comprende il controverso articolo 7, una disposizione che consente alle forze dell’ordine francesi e ai suoi appaltatori tecnologici di sperimentare la videosorveglianza intelligente prima, durante e dopo le Olimpiadi del 2024, e l’articolo 10, che consente specificamente l’uso di software di intelligenza artificiale per rivedere video e telecamere. feed. Queste leggi rendono la Francia il primo paese dell’UE a legalizzare un sistema di sorveglianza così ampio basato sull’intelligenza artificiale.

Studiosi, gruppi della società civile e difensori delle libertà civili hanno sottolineato che questi articoli sono contrari al regolamento generale sulla protezione dei dati e agli sforzi dell’UE per regolamentare l’IA. Sostengono che l’articolo 7 viola specificamente le disposizioni del regolamento generale sulla protezione dei dati che proteggono i dati biometrici.

Funzionari francesi e rappresentanti di aziende tecnologiche hanno affermato che il software di intelligenza artificiale può raggiungere i suoi obiettivi di identificare e segnalare quei tipi specifici di eventi senza identificare persone o entrare in conflitto con le restrizioni del regolamento generale sulla protezione dei dati relative al trattamento dei dati biometrici. Ma le organizzazioni europee per i diritti civili hanno sottolineato che se lo scopo e la funzione degli algoritmi e delle telecamere guidate dall’intelligenza artificiale è quello di rilevare specifici eventi sospetti negli spazi pubblici, questi sistemi necessariamente “catturaranno e analizzeranno le caratteristiche e i comportamenti fisiologici” delle persone in questi spazi. . Questi includono posizioni del corpo, andatura, movimenti, gesti e aspetto. I critici sostengono che si tratta di dati biometrici che vengono acquisiti ed elaborati, e quindi la legge francese viola il regolamento generale sulla protezione dei dati.

Sicurezza basata sull’intelligenza artificiale, a un costo

Per il governo francese e le società di intelligenza artificiale finora la sorveglianza dell’intelligenza artificiale è stata un successo reciprocamente vantaggioso. Gli osservatori algoritmici vengono utilizzati di più e forniscono ai governi e ai loro collaboratori tecnologici molti più dati di quelli che gli esseri umani da soli potrebbero fornire.

Ma questi sistemi di sorveglianza abilitati all’intelligenza artificiale sono scarsamente regolamentati e soggetti a pochi test indipendenti. Una volta raccolti i dati, il potenziale per ulteriori analisi dei dati e invasioni della privacy è enorme”.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Intelligenza artificiale e video sorveglianza a Londra, New York, Pechino… a discapito della privacy per la sicurezza

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts