“Per i pianificatori militari, i vantaggi delle armi letali e autonome sono evidenti”, si legge sul rapporto Public Citizen sulle armi e l’intelligenza artificiale “possono impegnarsi in combattimenti senza alcun rischio diretto per il personale militare statunitense. Offrono la prospettiva di agire quasi istantaneamente sull’intelligence in arrivo. Forniscono il fascino di un’applicazione di forza altamente mirata e controllata dal computer che può evitare lesioni a bersagli non voluti. In teoria, possono essere molto più economici delle armi convenzionali.
Ma questi presunti benefici sono ampiamente controbilanciati dall’immoralità di delegare le decisioni sull’impiego della forza letale alle macchine, così come dagli enormi rischi operativi delle armi autonome.
La preoccupazione più grave che riguarda le armi autonome è che esse disumanizzano intrinsecamente le persone prese di mira e rendono più facile tollerare uccisioni diffuse, anche in violazione del diritto internazionale sui diritti umani. “L’uso di sistemi d’arma autonomi comporta rischi dovuti alla difficoltà di anticiparne e limitarne gli effetti”, sostiene il Comitato internazionale della Croce Rossa (CICR). “Questa perdita di controllo e giudizio umano nell’uso della forza e delle armi solleva serie preoccupazioni dal punto di vista umanitario, legale ed etico.”12
Riassumendo le principali questioni etiche, il CICR rileva che “il processo e il funzionamento dei sistemi d’arma autonomi: comporta rischi di danni per le persone colpite da conflitti armati, sia civili che combattenti, nonché pericoli di escalation del conflitto; solleva sfide per il rispetto del diritto internazionale, compreso il diritto internazionale umanitario, in particolare le norme sulla condotta delle ostilità per la protezione dei civili; e solleva preoccupazioni etiche fondamentali per l’umanità, sostituendo di fatto le decisioni umane sulla vita e sulla morte con processi basati su sensori, software e macchine.
Questi problemi sono inerenti allo spiegamento di armi autonome letali. Persistono e sono inevitabili, anche con i controlli più severi in atto.
Gli attacchi dei droni statunitensi nella cosiddetta guerra al terrorismo hanno ucciso, come minimo, centinaia di civili – un problema dovuto a cattive informazioni e circostanze, non a mancate accensioni dei droni. Poiché le carenze dell’intelligence continueranno e le persone continueranno a essere persone – nel senso che si riuniranno e si muoveranno in modi imprevedibili – spostare il processo decisionale su sistemi autonomi non ridurrà questo numero di morti in futuro. Anzi, è probabile che peggiori il problema. Il processo decisionale “puro” renderà più semplice per gli esseri umani lanciare e potenziare armi autonome, così come la distanza morale tra gli esseri umani e la decisione di usare la forza letale contro individui identificabili. La rimozione del buon senso umano – la capacità di guardare una situazione e astenersi dall’autorizzare l’uso della forza letale, anche di fronte a indicatori che indicano l’uso della forza – può solo peggiorare ulteriormente il problema.
Il rapporto si conclude con una serie di raccomandazioni:
1. Gli Stati Uniti dovrebbero impegnarsi a non sviluppare o schierare armi autonome e dovrebbero sostenere un trattato globale che vieti tali armi.
2. Gli Stati Uniti dovrebbero codificare l’impegno secondo cui solo gli esseri umani possono lanciare armi nucleari.
3. I deepfake dovrebbero essere banditi dal campo di battaglia.
4. La spesa per le tecnologie di intelligenza artificiale dovrebbe provenire dal budget già gonfio e dispendioso del Pentagono, non da stanziamenti aggiuntivi.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Quattro possibili errori letali delle armi autonome gestite dall’intelligenza artificiale
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.