Quattro possibili errori letali delle armi autonome gestite dall’intelligenza artificiale

“Vedo quattro pericoli principali con armi autonome. Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e dodicenni che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica?”, scrive James Dawes su The Conversation.

“I robot killer, come i droni nel cortometraggio del 2017 “Slaughterbots”, sono stati a lungo uno dei principali sottogeneri della fantascienza. (Attenzione: rappresentazioni esplicite di violenza.)

Il problema qui non è che le macchine commetteranno tali errori e gli umani no. È che la differenza tra errore umano ed errore algoritmico è come la differenza tra spedire una lettera e twittare. La portata e la velocità dei sistemi di robot assassini – governati da un algoritmo di targeting, dispiegato in un intero continente – potrebbero far sembrare errate identificazioni da parte di singoli esseri umani come un recente attacco di droni statunitensi in Afghanistan, al confronto, come semplici errori di arrotondamento.

L’esperto di armi autonomo Paul Scharre usa la metafora della pistola in fuga per spiegare la differenza. Una pistola fuori controllo è una mitragliatrice difettosa che continua a sparare dopo che il grilletto è stato rilasciato. La pistola continua a sparare finché le munizioni non sono esaurite perché, per così dire, la pistola non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono rompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale protezione.

È importante sottolineare che l’IA armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono generare risultati internamente corretti che tuttavia diffondono terribili errori rapidamente tra le popolazioni.

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato i neri come gorilla; e uno strumento di apprendimento automatico utilizzato da Amazon per classificare i candidati al lavoro punteggi negativi assegnati sistematicamente alle donne.

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il problema della scatola nera dell’intelligenza artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

I problemi di proliferazione

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta. Iniziamo con la fascia bassa. I militari che sviluppano armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questo: le armi si diffondono.

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di quella che può essere considerata l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov: robot assassini economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo. Le armi autonome “Kalashnikov” potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

Il Kargu-2, realizzato da un appaltatore della difesa turco, è un incrocio tra un drone quadricottero e una bomba. Ha un’intelligenza artificiale per trovare e tracciare obiettivi e potrebbe essere stato utilizzato autonomamente nella guerra civile libica per attaccare le persone. Ministero della Difesa dell’Ucraina, CC BY
Tuttavia, la proliferazione di fascia alta è altrettanto negativa. Le nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari. I pericoli morali dell’escalation della letalità delle armi sarebbero amplificati dall’aumento dell’uso delle armi.

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché ridurranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili all’estero e la preoccupazione per i propri soldati. È probabile che le armi siano dotate di costosi regolatori etici progettati per ridurre al minimo i danni collaterali, utilizzando quello che la relatrice speciale delle Nazioni Unite Agnes Callamard ha definito il “mito di un attacco chirurgico” per reprimere le proteste morali. Le armi autonome ridurranno anche sia la necessità che il rischio per i propri soldati, alterando drasticamente l’analisi costi-benefici che le nazioni subiscono mentre lanciano e mantengono le guerre.

È probabile che le guerre asimmetriche, ovvero le guerre condotte sul suolo di nazioni prive di tecnologia competitiva, diventino più comuni. Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplicalo per ogni paese che attualmente punta ad armi autonome di fascia alta.

Minando le leggi della guerra

Infine, le armi autonome mineranno l’ultima tappabuchi dell’umanità contro i crimini di guerra e le atrocità: le leggi internazionali di guerra. Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche durante la guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. Un esempio di spicco di qualcuno tenuto a rendere conto è Slobodan Milosevic, ex presidente della Repubblica Federale di Jugoslavia, che è stato incriminato con l’accusa di crimini contro l’umanità e crimini di guerra dal Tribunale Penale Internazionale delle Nazioni Unite per l’ex Jugoslavia.

Ma come possono essere ritenute responsabili le armi autonome? Di chi è la colpa di un robot che commette crimini di guerra? Chi verrebbe processato? L’arma? Il soldato? I comandanti del soldato? La società che ha fabbricato l’arma? Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome porteranno a un grave divario di responsabilità.

Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole. Ciò sarebbe difficile dal punto di vista legale e forse ingiusto dal punto di vista morale, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande.

La sfida legale e morale non è resa più facile spostando la colpa lungo la catena di comando o tornando al sito di produzione. In un mondo senza regolamenti che impongono un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili. La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolito.

Una nuova corsa agli armamenti globale

Immagina un mondo in cui le forze armate, i gruppi ribelli e i terroristi nazionali e internazionali possono dispiegare una forza letale teoricamente illimitata a rischio teoricamente zero nei momenti e nei luoghi di loro scelta, senza alcuna conseguente responsabilità legale. È un mondo in cui il tipo di inevitabili errori algoritmici che affliggono persino giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città”.

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Ucraina, intelligenza artificiale e sicurezza energetica al centro dell’attenzione

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Related Posts