L’intelligenza artificiale probabilmente aumenterà la velocità e la letalità della guerra

“I militari utilizzano sistemi remoti e autonomi come “moltiplicatori di forza” per aumentare l’impatto delle loro truppe e proteggere la vita dei loro soldati. I sistemi di intelligenza artificiale possono rendere i soldati più efficienti e , anche se gli umani diventano meno visibili sul campo di battaglia, raccogliendo invece informazioni e prendendo di mira da lontano”, scrive Bianca Baggiarini Docente, Università Nazionale Australiana su The Conversation.

“Cosa significa che sistemi di targeting IA come questo vengano utilizzati in conflitto? La mia ricerca sulle implicazioni sociali, politiche ed etiche dell’uso militare di sistemi remoti e autonomi mostra che l’intelligenza artificiale sta già alterando il carattere della guerra.

Quando i militari potranno uccidere a piacimento, con pochi rischi per i propri soldati, prevarrà l’attuale pensiero etico sulla guerra? Oppure il crescente utilizzo dell’intelligenza artificiale aumenterà anche la disumanizzazione degli avversari e la disconnessione tra le guerre e le società in nome delle quali vengono combattute?

L’intelligenza artificiale sta avendo un impatto a tutti i livelli di guerra, dal supporto di “intelligence, sorveglianza e ricognizione”, come il sistema Habsora dell’IDF, fino ai “sistemi di armi autonome letali” che possono scegliere e attaccare obiettivi senza intervento umano.

Questi sistemi hanno il potenziale per rimodellare il carattere della guerra, rendendo più facile entrare in un conflitto. Essendo sistemi complessi e distribuiti, possono anche rendere più difficile segnalare le proprie intenzioni – o interpretare quelle di un avversario – nel contesto di un conflitto crescente.

A tal fine, l’intelligenza artificiale può contribuire alla cattiva informazione o alla disinformazione, creando e amplificando pericolosi malintesi in tempo di guerra.

I sistemi di intelligenza artificiale possono aumentare la tendenza umana a fidarsi dei suggerimenti delle macchine (questo è evidenziato dal sistema Habsora, che prende il nome dall’infallibile parola di Dio), aprendo l’incertezza su quanto fidarsi dei sistemi autonomi. I confini di un sistema di intelligenza artificiale che interagisce con altre tecnologie e con le persone potrebbero non essere chiari, e potrebbe non esserci modo di sapere chi o cosa ha “creato” i suoi risultati, non importa quanto oggettivi e razionali possano sembrare.

Apprendimento automatico ad alta velocità

Forse uno dei cambiamenti più basilari e importanti che probabilmente vedremo grazie all’intelligenza artificiale è un aumento della velocità della guerra. Ciò potrebbe cambiare il modo in cui comprendiamo la deterrenza militare, che presuppone che gli esseri umani siano gli attori principali e le fonti di intelligence e di interazione in guerra.

Militari e soldati inquadrano il loro processo decisionale attraverso quello che viene chiamato il “ciclo OODA” (per osservare, orientare, decidere, agire). Un ciclo OODA più veloce può aiutarti a sconfiggere il tuo nemico. L’obiettivo è quello di evitare di rallentare le decisioni attraverso un’eccessiva deliberazione, e invece di adeguarsi al ritmo accelerato della guerra.

Quindi l’uso dell’intelligenza artificiale è potenzialmente giustificato sulla base della sua capacità di interpretare e sintetizzare enormi quantità di dati, elaborandoli e fornendo risultati a velocità che superano di gran lunga la cognizione umana.

Il problema dell’intelligenza artificiale ha consentito il targeting a distanza

Alcuni sostengono che l’apprendimento automatico consenta una maggiore precisione nel prendere di mira, il che rende più facile evitare di danneggiare persone innocenti e di usare una quantità proporzionale di forza. Tuttavia, l’idea di prendere di mira in modo più preciso gli attacchi aerei non ha avuto successo in passato, come dimostra l’elevato numero di vittime civili dichiarate e non dichiarate derivanti dalla guerra globale al terrorismo.

Inoltre, la differenza tra un combattente e un civile raramente è evidente. Perfino gli esseri umani spesso non sono in grado di dire chi è e chi non è un combattente.

La tecnologia non cambia questa verità fondamentale. Spesso le categorie e i concetti sociali non sono oggettivi, ma sono contestati o specifici al tempo e al luogo. Ma la visione artificiale insieme agli algoritmi sono più efficaci in ambienti prevedibili in cui i concetti sono oggettivi, ragionevolmente stabili e internamente coerenti.

L’intelligenza artificiale peggiorerà la guerra?

Viviamo in un’epoca di guerre ingiuste e occupazioni militari, di gravi violazioni delle regole di ingaggio e di un’incipiente corsa agli armamenti di fronte alla rivalità USA-Cina. In questo contesto, l’inclusione dell’intelligenza artificiale in guerra può aggiungere nuove complessità che esacerbano, anziché prevenire, i danni.

I sistemi di intelligenza artificiale rendono più facile per gli attori in guerra rimanere anonimi e possono rendere invisibile la fonte della violenza o le decisioni che portano ad essa. A sua volta, potremmo assistere a una crescente disconnessione tra militari, soldati e civili e le guerre combattute in nome della nazione che servono.

E man mano che l’intelligenza artificiale diventa più comune in guerra, i militari svilupperanno contromisure per indebolirla, creando un ciclo di crescente militarizzazione.

E adesso?

Possiamo controllare i sistemi di intelligenza artificiale per scongiurare un futuro in cui la guerra è guidata da una crescente dipendenza dalla tecnologia sostenuta da algoritmi di apprendimento? Controllare lo sviluppo dell’intelligenza artificiale in qualsiasi area, in particolare attraverso leggi e regolamenti, si è rivelato difficile.

Molti suggeriscono che abbiamo bisogno di leggi migliori per tenere conto dei sistemi sostenuti dall’apprendimento automatico, ma anche questo non è semplice. Gli algoritmi di apprendimento automatico sono difficili da regolamentare.

Le armi abilitate all’intelligenza artificiale possono programmarsi e aggiornarsi da sole, eludendo i requisiti legali di certezza. La massima ingegneristica “il software non è mai finito” implica che la legge potrebbe non eguagliare mai la velocità del cambiamento tecnologico.

L’atto quantitativo di stimare in anticipo il probabile numero di morti civili, effettuato dal sistema Habsora, non ci dice molto sulle dimensioni qualitative del targeting. Sistemi come Habsora presi isolatamente non possono dirci molto sul fatto se uno sciopero sarebbe etico o legale (vale a dire, se sia proporzionato, discriminatorio e necessario, tra le altre considerazioni).

L’intelligenza artificiale dovrebbe sostenere gli ideali democratici, non indebolirli. La fiducia nei governi, nelle istituzioni e negli eserciti si sta erodendo e deve essere ripristinata se intendiamo applicare l’intelligenza artificiale a una serie di pratiche militari. Dobbiamo implementare un’analisi etica e politica critica per interrogare le tecnologie emergenti e i loro effetti in modo che qualsiasi forma di violenza militare sia considerata l’ultima risorsa.

Fino ad allora, è meglio tenere gli algoritmi di machine learning separati dalle pratiche di targeting. Sfortunatamente, gli eserciti del mondo stanno andando nella direzione opposta”.

Tratto da: https://theconversation.com/israels-ai-can-produce-100-bombing-targets-a-day-in-gaza-is-this-the-future-of-war-219302

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  I sistemi d’arma autonomi potrebbero aver già ucciso degli esseri umani. Lo dice il rapporto del Consiglio di sicurezza delle Nazioni Unite sulla guerra civile libica

Per non dimenticare: Robot schiaccia un uomo in Sud Corea. Lo aveva scambiato per una scatola

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

 

Related Posts