La prima guerra mondiale ha portato i carri armati, la seconda l’atomica, ora c’è l’intelligenza artificiale sui campi di battaglia e “liste di uccisioni come una catena di produzione industriale”

“La prima guerra mondiale ci ha regalato i carri armati. La seconda guerra mondiale, la bomba atomica. Oggi il mondo è testimone di due grandi guerre, la guerra di Israele a Gaza e l’invasione russa dell’Ucraina, e l’intelligenza artificiale è entrata in entrambi questi campi di battaglia. L’intelligenza artificiale viene utilizzata dai soldati che combattono queste guerre. Oppure potresti dire che l’intelligenza artificiale è il nuovo soldato in queste guerre”, spiega Palki Sharma.

Il soldato AI israeliano si chiama Lavender. È una macchina per uccidere. Sputa elenchi di obiettivi, individui sospettati di terrorismo. Lavender crea queste liste per l’IDF, ovvero le forze di difesa israeliane. Secondo un rapporto, l’IDF ha utilizzato la lavanda per stilare un elenco e lo ha fatto con circa 37.000 palestinesi. Sono stati etichettati come sospetti militanti di Hamas. Quindi il sistema di intelligenza artificiale ha identificato queste persone per l’IDF e poi i soldati hanno semplicemente inseguito le persone sulla lista. Nessuna domanda chiesta.

In genere, in operazioni come queste, i militari si prendono il loro tempo. Seguono più passaggi prima di lanciarsi in una serie di bombardamenti, come il ricorso all’intelligenza umana, una fonte sul campo in grado di identificare e rintracciare un sospetto. Il prossimo passo è cercare prove concrete, prove chiare del coinvolgimento in attività terroristiche. E una volta ottenuta questa prova, possibilmente da più fonti, danno ordine di neutralizzare il sospettato.

Ma Israele sembra fare affidamento completamente a Lavender. Fondamentalmente ha preso il controllo del loro processo di raccolta di informazioni. Una volta contrassegnato qualcuno come bersaglio, il suo destino è segnato. C’è poco intervento umano, nessuna verifica o esame accurato dell’intelligenza grezza della lavanda anche quando è noto che il sistema commette errori. Lavender ha un tasso di errore del 10% Quindi su un elenco di 100 obiettivi, 10 nomi potrebbero essere sbagliati Ciò significa che persone innocenti potrebbero essere etichettate come terroristi e uccise perché una macchina le ha puntate.

Israele afferma che non sta utilizzando l’intelligenza artificiale per identificare gli obiettivi. Ma un altro rapporto contesta questa affermazione. È del dicembre dello scorso anno, dice che l’esercito israeliano ha un’unità di intelligenza artificiale che gestisce una struttura segreta e sforna liste di uccisioni come una catena di produzione industriale.

Non siamo stati in grado di verificare nessuna delle due affermazioni.

I palestinesi, tuttavia, hanno cercato l’intervento internazionale per fermare Israele. Nel corso del passato

A Gaza sono stati uccisi più di 30.000 palestinesi, tra cui oltre 13.000 bambini. Dobbiamo chiederci cosa abbia portato a un bilancio delle vittime così sconcertante. L’uso dell’intelligenza artificiale da parte di Israele è stato fondamentale per l’esecuzione delle sue uccisioni di massa a Gaza.

Questo non sembra più un progetto sperimentale”.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  I sistemi d’arma autonomi potrebbero aver già ucciso degli esseri umani. Lo dice il rapporto del Consiglio di sicurezza delle Nazioni Unite sulla guerra civile libica

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts