Armi: “i tradizionali appaltatori del Pentagono stanno incorporando l’intelligenza artificiale nelle loro operazioni e nei loro prodotti”, rapporto Public Citizen

“Il Dipartimento della Difesa degli Stati Uniti (DOD) e il complesso militare-industriale si stanno affrettando ad abbracciare un futuro guidato dall’intelligenza artificiale (AI)”, scrive Public Citizen nel nuovo rapporto su armi ed intelligenza artificiale.
“Non c’è nulla di particolarmente sorprendente o intrinsecamente preoccupante in questa tendenza. L’intelligenza artificiale è già ampiamente utilizzata ed è probabile che l’evoluzione delle tecnologie di intelligenza artificiale generativa pervada la società, rimodellando posti di lavoro, accordi organizzativi e macchinari.
Allo stesso tempo, l’intelligenza artificiale pone molteplici rischi per la società e le applicazioni militari presentano nuovi problemi e preoccupazioni, come riconosce lo stesso Pentagono.

Prospettive e politiche sull’intelligenza artificiale del Pentagono
In un discorso dell’agosto 2023, il vice segretario alla Difesa Kathleen Hicks ha affermato che il Pentagono aveva gettato le basi per “fornire – ora – un esercito basato sui dati e potenziato dall’intelligenza artificiale”.
Combinando investimenti in dati, potenza di calcolo e intelligenza artificiale, il DOD sta costruendo quello che chiama Combined Joint All-Domain Command and Control (CJADC2). Secondo Hicks, “Questa non è una piattaforma o un unico sistema che stiamo acquistando. Si tratta di un insieme di concetti, tecnologie, politiche e talenti che stanno facendo avanzare una funzione fondamentale della guerra degli Stati Uniti”. E, promette Hicks, CJADC2 è solo una parte dell’impegno del DOD nel promuovere l’innovazione con l’intelligenza artificiale al centro.
A giugno, il DOD ha pubblicato la sua “Strategia di adozione di dati, analisi e intelligenza artificiale”. Il sottotitolo del documento è “Accelerating Decision Advantage”, che evidenzia il messaggio centrale della strategia: l’intelligenza artificiale è un potente strumento per migliorare la lotta al DOD e altre capacità, e il Pentagono deve accelerare lo sviluppo e l’adozione delle tecnologie di intelligenza artificiale. “Gli ultimi progressi nelle tecnologie dei dati, dell’analisi e dell’intelligenza artificiale (AI) consentono ai leader di prendere decisioni migliori più velocemente, dalla sala del consiglio al campo di battaglia”, afferma la discussione del piano sull’ambiente strategico. “Pertanto, accelerare l’adozione di queste tecnologie rappresenta un’esperienza senza precedenti opportunità di fornire ai leader a tutti i livelli del Dipartimento i dati di cui hanno bisogno e di sfruttare tutto il potenziale del potere decisionale del nostro personale.
Nel frattempo, i tradizionali appaltatori del Pentagono stanno incorporando l’intelligenza artificiale nelle loro operazioni e nei loro prodotti – e un nuovo gruppo di società di intelligenza artificiale stanno lottando per una quota dei dollari del Pentagono. Il processo di approvvigionamento e innovazione del Pentagono è sempre un tira e molla tra le esigenze prioritarie interne del Pentagono e ciò che gli appaltatori stanno sviluppando e pubblicizzando, spesso mediato dal Congresso. L’introduzione delle società di intelligenza artificiale in questo spazio è destinata a complicare questo processo standard, con la concorrenza tra gli appaltatori tradizionali e i nuovi entranti, con nuove dinamiche tra le società di intelligenza artificiale e il Pentagono e nuovi canali di influenza aziendale.

L’introduzione dell’intelligenza artificiale nelle attività quotidiane del Pentagono, nei processi decisionali sul campo di battaglia e nei sistemi d’arma comporta molteplici rischi, come riconosce lo stesso Pentagono.

Nel 2020, il DOD ha adottato i suoi principi etici sull’intelligenza artificiale.4 Tali principi sono:
1. Responsabile. Il personale del Dipartimento della Difesa eserciterà giudizio, attenzione e sarà responsabile dell’utilizzo dell’intelligenza artificiale.
2. Equo. Il Dipartimento adotterà misure deliberate per ridurre al minimo i pregiudizi involontari nelle capacità di intelligenza artificiale.
3. Tracciabile. Le metodologie di intelligenza artificiale dovrebbero essere verificabili e avere origini dati e progettazione trasparenti.
4. Affidabile. L’intelligenza artificiale dovrebbe servire a scopi espliciti ed essere soggetta a test costanti.
5. Governabile. Il Pentagono deve essere in grado di rilevare ed evitare conseguenze indesiderate e disattivare i sistemi schierati.

In un memorandum del 2021, il vice segretario alla Difesa Hicks ha riaffermato i principi etici dell’intelligenza artificiale e ha avviato un processo per accelerare l’implementazione dell’“intelligenza artificiale responsabile” (RAI).

Nella nota, ha lanciato varie iniziative di formazione e ha annunciato che un comitato di lavoro della RAI sarebbe incaricato di sviluppare una strategia di attuazione dei principi e di accelerare la diffusione dell’intelligenza artificiale.

Nel giugno 2022, il Pentagono ha pubblicato il suo “Percorso di strategia e implementazione responsabile dell’intelligenza artificiale”.

Questo percorso descrive in dettaglio decine di “linee di impegno” per raggiungere una varietà di obiettivi di intelligenza artificiale. Questi includono la formazione del personale DOD, l’accelerazione dell’implementazione delle tecnologie di intelligenza artificiale e la gestione dei rischi identificati. Una priorità dichiarata è quella di “prestare un’attenzione adeguata nel ciclo di vita del prodotto e dell’acquisizione dell’IA per garantire che i potenziali rischi dell’IA siano presi in considerazione fin dall’inizio di un progetto di intelligenza artificiale e che vengano compiuti sforzi per mitigare o migliorare tali rischi e ridurre le conseguenze indesiderate, consentendo al tempo stesso lo sviluppo dell’IA al ritmo di cui il Dipartimento ha bisogno per soddisfare la strategia di difesa nazionale”.

Molte delle linee di impegno nel percorso RAI sono affidate al Chief Digital and Artificial Intelligence Office (CDAO) del DOD, diventato operativo nel giugno 2022 e dedicato all’integrazione delle capacità di intelligenza artificiale in tutto il Pentagono. A ricoprire il ruolo di Chief Digital and Artificial Intelligence Officer c’è il dottor Craig Martell, che esprime pubblicamente preoccupazioni e avvertimenti sull’uso dell’intelligenza artificiale.

Parlando con la conduttrice della CNN Christine Amanpour nell’agosto 2023, ha avvertito che i modelli linguistici di grandi dimensioni (LLM) non “generano sempre testi coerenti con i fatti”. Ma, ha detto, c’è una “naturale propensione a credere a cose che parlano in modo autorevole. E queste cose parlano in modo autorevole, quindi ci crediamo e basta. Questo mi fa paura.

Martell ha affermato che il Pentagono elaborerà un elenco di casi d’uso per LLM e criteri di accettabilità. Ad esempio, ha detto, se il personale del Dipartimento della Difesa chiede a un chatbot dotato di intelligenza artificiale come utilizzare una nuova tecnologia sul campo di battaglia, è meglio che abbia ragione il 99,999% delle volte.

Il rapporto si conclude con una serie di raccomandazioni:
1. Gli Stati Uniti dovrebbero impegnarsi a non sviluppare o schierare armi autonome e dovrebbero sostenere un trattato globale che vieti tali armi.
2. Gli Stati Uniti dovrebbero codificare l’impegno secondo cui solo gli esseri umani possono lanciare armi nucleari.
3. I deepfake dovrebbero essere banditi dal campo di battaglia.
4. La spesa per le tecnologie di intelligenza artificiale dovrebbe provenire dal budget già gonfio e dispendioso del Pentagono, non da stanziamenti aggiuntivi.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Quattro possibili errori letali delle armi autonome gestite dall’intelligenza artificiale

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts