“La questione più grave che riguarda il controllo autonomo sull’uso della forza letale è il caso delle armi nucleari. Un attacco nucleare lanciato dall’intelligenza artificiale a causa di un errore o dell’incapacità di esercitare il giudizio umano sarebbe catastrofico per l’umanità”, si legge sul rapporto Public Citizen sulle armi e l’intelligenza artificiale.
L’attuale politica del Dipartimento della Difesa afferma che un essere umano deve essere coinvolto in tutte le decisioni relative al lancio di armi nucleari. Secondo la Nuclear Posture Review del 2022, “In tutti i casi, gli Stati Uniti manterranno un essere umano “in the loop” per tutte le azioni cruciali per informare ed eseguire le decisioni del Presidente sull’avvio e la cessazione dell’impiego di armi nucleari.”
Ma questa politica non è codificata nella legge. Il senatore Ed Markey, D-Mass. e i rappresentanti Ted Lieu, D-Calif., Don Beyer, D-Va. e Ken Buck, R-Colo, hanno introdotto la legge bipartisan Block Nuclear Launch by Autonomous AI per vietare il lancio di qualsiasi arma nucleare da parte di un sistema automatizzato senza ma un controllo umano significativo. Formalizzare la politica non lo farebbe bloccandolo soltanto, potrebbe incentivare la Cina, la Russia e altre potenze nucleari a seguire l’esempio.
Il divieto del lancio di armi nucleari tramite intelligenza artificiale dovrebbe essere codificato in legge.
Con il rapido progresso dell’intelligenza artificiale, è fondamentale stabilire una regola chiara che richieda la supervisione umana su qualsiasi decisione relativa all’uso delle armi più pericolose conosciute dall’umanità. Indipendentemente dall’ulteriore sviluppo dell’intelligenza artificiale, le armi nucleari devono essere gestite eticamente dagli esseri umani. L’idea dei lanci nucleari automatizzati è un invito sconsiderato a lanci accidentali o sbagliati e, dato l’enorme potenziale distruttivo delle armi nucleari, del tutto immorale.
Il Congresso dovrebbe approvare immediatamente, e il presidente dovrebbe firmare, il Block Nuclear Launch by Autonomous AI Act.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Quattro possibili errori letali delle armi autonome gestite dall’intelligenza artificiale
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.