Gaza, al genocidio ha contribuito anche la precisione data dall’intelligenza artificiale: “trattavano i risultati della macchina IA “come se fosse una decisione umana””

Israele ha utilizzato un database per le liste delle vittime di Gaza, secondo quanto riferito da due media israeliani. Così i nemici sono ancora più disumanizzati. L’intelligenza artificiale esegue il compito che le è stato dato. Le implicazioni etiche ed umane non sono rilevanti.

“L’esercito israeliano ha contrassegnato decine di migliaia di abitanti di Gaza come sospettati di omicidio, utilizzando un sistema di targeting basato sull’intelligenza artificiale con scarsa supervisione umana e una politica permissiva per le vittime, rivelano +972 e Local Call”, scrive Yuval Abraham

“Nel 2021, un libro intitolato “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” è stato pubblicato in inglese con lo pseudonimo di “Brigadier General Y.S.” In esso, l’autore – un uomo che abbiamo confermato essere l’attuale comandante dell’unità d’élite dell’intelligence israeliana 8200 – sostiene la necessità di progettare una macchina speciale in grado di elaborare rapidamente enormi quantità di dati per generare migliaia di potenziali “bersagli” per i militari. scioperi nel vivo di una guerra. Tale tecnologia, scrive, risolverebbe quello che ha descritto come un “collo di bottiglia umano sia per l’individuazione dei nuovi obiettivi che per il processo decisionale per approvarli”.

Si scopre che una macchina del genere esiste davvero. Una nuova indagine di +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come “Lavender”, presentato qui per la prima volta. Secondo sei ufficiali dell’intelligence israeliana, che hanno tutti prestato servizio nell’esercito durante l’attuale guerra nella Striscia di Gaza e sono stati coinvolti in prima persona nell’uso dell’intelligenza artificiale per generare obiettivi da assassinare, Lavender ha svolto un ruolo centrale nel bombardamento senza precedenti di Palestinesi, soprattutto durante le prime fasi della guerra. Infatti, secondo le fonti, la sua influenza sulle operazioni militari era tale che essenzialmente trattavano i risultati della macchina IA “come se fosse una decisione umana”.

“Le fonti hanno riferito a +972 e Local Call che, durante le prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha individuato fino a 37.000 palestinesi come sospetti militanti – e le loro case – per possibili attacchi aerei.

Durante le prime fasi della guerra, l’esercito diede ampia approvazione agli ufficiali affinché adottassero le liste di uccisione di Lavender, senza alcun obbligo di verificare approfonditamente il motivo per cui la macchina faceva quelle scelte o di esaminare i dati grezzi di intelligence su cui si basavano. Una fonte ha affermato che il personale umano spesso fungeva solo da “timbro di gomma” per le decisioni della macchina, aggiungendo che, normalmente, avrebbe dedicato personalmente solo circa “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento – solo per assicurarsi che Lavender- l’obiettivo contrassegnato è maschio. Ciò nonostante si sapesse che il sistema commette quelli che sono considerati “errori” in circa il 10% dei casi, ed è noto che occasionalmente contrassegna individui che hanno semplicemente un legame debole con gruppi militanti, o nessun legame.

Inoltre, l’esercito israeliano ha attaccato sistematicamente le persone prese di mira mentre si trovavano nelle loro case – di solito di notte, quando erano presenti tutte le loro famiglie – piuttosto che nel corso di un’attività militare. Secondo le fonti ciò era dovuto al fatto che, dal punto di vista dell’intelligence, era più facile localizzare le persone nelle loro case private. Ulteriori sistemi automatizzati, incluso uno chiamato “Dov’è papà?” rivelati qui per la prima volta, venivano utilizzati appositamente per rintracciare le persone prese di mira ed effettuare attentati quando entravano nelle residenze delle loro famiglie.

Il risultato, come hanno testimoniato le fonti, è che migliaia di palestinesi – la maggior parte dei quali donne e bambini o persone non coinvolte nei combattimenti – sono stati spazzati via dagli attacchi aerei israeliani, soprattutto durante le prime settimane di guerra, a causa dell’intelligenza artificiale. decisioni del programma.

La macchina Lavender si unisce a un altro sistema di intelligenza artificiale, “The Gospel”, le cui informazioni sono state rivelate in una precedente indagine di +972 e Local Call nel novembre 2023, nonché nelle pubblicazioni dell’esercito israeliano. Una differenza fondamentale tra i due sistemi sta nella definizione dell’obiettivo: mentre The Gospel contrassegna gli edifici e le strutture da cui secondo l’esercito operano i militanti, Lavender contrassegna le persone e le inserisce in una lista di uccisioni.

Inoltre, secondo le fonti, quando si è trattato di prendere di mira i presunti giovani militanti contrassegnati da Lavender, l’esercito ha preferito utilizzare solo missili non guidati, comunemente noti come bombe “stupide” (a differenza delle bombe di precisione “intelligenti”), che possono distruggere interi edifici sopra i loro occupanti e causano perdite significative. “Non vuoi sprecare bombe costose per persone non importanti – è molto costoso per il Paese e c’è carenza [di quelle bombe]”, ha detto C., uno degli ufficiali dell’intelligence. Un’altra fonte ha affermato di aver autorizzato personalmente il bombardamento di “centinaia” di case private di presunti giovani agenti contrassegnati da Lavender, con molti di questi attacchi che hanno ucciso civili e intere famiglie come “danno collaterale”.”

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  L’intelligenza artificiale probabilmente aumenterà la velocità e la letalità della guerra

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts