“È probabile che si verifichino ulteriori problemi a causa degli errori dell’IA, inclusi i bias“, si legge sul rapporto Public Citizen sulle armi e l’intelligenza artificiale. Forti regimi di test mitigheranno questi problemi, ma l’intelligenza artificiale creata dall’uomo ha costantemente mostrato problemi di pregiudizi razziali, anche nel riconoscimento facciale e in vari tipi di processo decisionale, un problema molto significativo quando gli obiettivi statunitensi sono così spesso persone di colore. A suo merito, il Pentagono identifica questo rischio e altri possibili punti deboli dell’IA, tra cui problemi relativi alle contromisure degli avversari, al rischio di manomissione e alla sicurezza informatica.”
Sarebbe insensato, tuttavia, aspettarsi che i test del Pentagono prevengano adeguatamente questi problemi; c’è troppa incertezza sul funzionamento dell’intelligenza artificiale ed è impossibile replicare le condizioni del campo di battaglia del mondo reale. Spiega la ricerca no-profit Automated Decision Research: “La disumanizzazione digitale che deriva dalla riduzione delle persone a punti dati basati su caratteristiche specifiche solleva seri interrogativi su come vengono creati i profili target delle armi autonome e su quali dati preesistenti si basano questi profili target . Solleva anche domande su come l’utente possa capire cosa rientra nel profilo bersaglio di un’arma e perché il sistema d’arma ha applicato la forza.”
Il rapporto si conclude con una serie di raccomandazioni:
1. Gli Stati Uniti dovrebbero impegnarsi a non sviluppare o schierare armi autonome e dovrebbero sostenere un trattato globale che vieti tali armi.
2. Gli Stati Uniti dovrebbero codificare l’impegno secondo cui solo gli esseri umani possono lanciare armi nucleari.
3. I deepfake dovrebbero essere banditi dal campo di battaglia.
4. La spesa per le tecnologie di intelligenza artificiale dovrebbe provenire dal budget già gonfio e dispendioso del Pentagono, non da stanziamenti aggiuntivi.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Quattro possibili errori letali delle armi autonome gestite dall’intelligenza artificiale
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.