Armi autonome: “in casi di urgente necessità militare” la necessaria revisione da parte di esperti dello sviluppo e del dispiegamento di armi autonome può essere derogata, la denuncia nel rapporto Public Citizen

“La principale preoccupazione che coinvolge l’intelligenza artificiale e il Pentagono è l’integrazione dell’intelligenza artificiale nei sistemi d’arma in modo tale che possano funzionare in modo autonomo, fornendo forza letale senza intervento o controllo umano significativo”, si legge sul rapporto Public Citizen sulle armi e l’intelligenza artificiale.
“Il Pentagono riconosce i rischi connessi alle armi autonome. La Direttiva DOD 3000.09, emessa nel gennaio 2023, stabilisce la politica DOD relativa allo sviluppo e all’uso di funzioni autonome e semi-autonome nei sistemi d’arma, con lo scopo prioritario di “minimizzare[ing] la probabilità e le conseguenze di guasti nei sistemi autonomi e semi-autonomi. sistemi d’arma autonomi che potrebbero portare a impegni non intenzionali.9 La direttiva del 2023 aggiorna una direttiva precedente del 2012.
La direttiva stabilisce che “i sistemi d’arma autonomi e semi-autonomi saranno progettati per consentire ai comandanti e agli operatori di esercitare adeguati livelli di giudizio umano sull’uso della forza”. Specifica gli standard di test e valutazione per le armi autonome, anche per garantire che funzionino come previsto in ambienti realistici in cui devono affrontare contromisure. Stabilisce catene di revisione per l’approvazione delle armi autonome e richiede a coloro che approvano tali armi di garantire che siano conformi alle politiche responsabili sull’IA del DOD, al diritto di guerra, ai trattati applicabili e alle norme sulla sicurezza delle armi.10
Una revisione della politica di Human Rights Watch / Harvard Law School International Human Rights Clinic conclude che è “seria” e include alcuni miglioramenti rispetto alla direttiva precedente, ma rileva numerose carenze. Una lacuna è che la necessaria revisione da parte di esperti dello sviluppo e del dispiegamento di armi autonome può essere derogata “in casi di urgente necessità militare”. Il DOD rifiuta di riferire se tali deroghe sono state concesse. Un’altra lacuna è l’eliminazione della parola “controllo” dagli elementi della direttiva del 2012; la direttiva precedente aveva specificato le preoccupazioni su come il personale DOD potesse perdere il controllo delle armi autonome a favore di soggetti non autorizzati. La revisione rileva inoltre che la direttiva DOD consente la vendita e il trasferimento internazionale di armi autonome; e inoltre, per sua natura, si applica solo al DOD, ma non alla Central Intelligence Agency, alla U.S. Customs and Border Protection o ad altre agenzie governative statunitensi che potrebbero utilizzare armi autonome.11
Il più grande difetto della direttiva, tuttavia, è che consente lo sviluppo e l’impiego di armi letali autonome.

Il rapporto si conclude con una serie di raccomandazioni:
1. Gli Stati Uniti dovrebbero impegnarsi a non sviluppare o schierare armi autonome e dovrebbero sostenere un trattato globale che vieti tali armi.
2. Gli Stati Uniti dovrebbero codificare l’impegno secondo cui solo gli esseri umani possono lanciare armi nucleari.
3. I deepfake dovrebbero essere banditi dal campo di battaglia.
4. La spesa per le tecnologie di intelligenza artificiale dovrebbe provenire dal budget già gonfio e dispendioso del Pentagono, non da stanziamenti aggiuntivi.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Quattro possibili errori letali delle armi autonome gestite dall’intelligenza artificiale

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts