“Un modo in cui l’intelligenza artificiale viene già utilizzata in condizioni di guerra è quello di elaborare l’intelligence, con alcuni primi esempi inquietanti”, si legge sul rapporto Public Citizen sulle armi e l’intelligenza artificiale.
“La pubblicazione palestinese-israeliana +972, Israeli Local Call e The Guardian hanno riferito, sulla base di interviste con attuali ed ex funzionari dell’intelligence israeliana, di un sistema di elaborazione dell’intelligence israeliano basato sull’intelligenza artificiale, chiamato The Gospel, che sta analizzando i dati e raccomandando obiettivi all’interno di Gaza. .32 Fonti israeliane riferiscono che il sistema sta fornendo molti più obiettivi di quelli che l’esercito israeliano era in grado di identificare in precedenza. Invece di concentrare gli attacchi, secondo questi rapporti, il sistema di intelligenza artificiale sta consentendo un uso molto più ampio della forza, fornendo copertura per attacchi contro residenze ed edifici civili. Sebbene il sistema di intelligenza artificiale fornisca informazioni sui civili a rischio nei siti bersaglio, i resoconti dei media descrivono l’effetto disumanizzante della dipendenza dall’intelligenza artificiale: un occhio umano “esaminerà gli obiettivi prima di ogni attacco, ma non è necessario che passi molto tempo su di essi”. ”, ha dichiarato un ex funzionario dell’intelligence.
Il rapporto si conclude con una serie di raccomandazioni:
1. Gli Stati Uniti dovrebbero impegnarsi a non sviluppare o schierare armi autonome e dovrebbero sostenere un trattato globale che vieti tali armi.
2. Gli Stati Uniti dovrebbero codificare l’impegno secondo cui solo gli esseri umani possono lanciare armi nucleari.
3. I deepfake dovrebbero essere banditi dal campo di battaglia.
4. La spesa per le tecnologie di intelligenza artificiale dovrebbe provenire dal budget già gonfio e dispendioso del Pentagono, non da stanziamenti aggiuntivi.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Quattro possibili errori letali delle armi autonome gestite dall’intelligenza artificiale
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.