Categorie
Gaza: un massacro pianificato con l'Intelligenza Artificiale
Come funziona "Lavender", il sistema informatico che Israele usa per attaccare la Striscia di Gaza. di Telma Luzzani Con il via libera degli Stati Uniti, le Forze di Difesa Israeliane (IDF) hanno deciso di sperimentare sui palestinesi e di utilizzare l’Intelligenza Artificiale (AI) per bombardamenti e omicidi di massa nella Striscia di Gaza.  Il sistema utilizzato, chiamato “Lavender”, elabora, ad alta velocità, una quantità gigantesca di dati sui 2.300.000 palestinesi che vivono a Gaza; Li classifica da 1 a 100 e dà la priorità come bombardamento “bersaglio” a coloro che – secondo gli algoritmi di apprendimento automatico – sarebbero legati ad Hamas o alla Jihad islamica. È dimostrato che la macchina fallisce e ha già segnato migliaia di persone che non hanno nulla a che fare con le milizie armate. Per "Lavanda" le persone da uccidere sono a loro volta divise in “bersagli umani” (comandanti) e “bersagli spazzatura” (soldati). Per quanto riguarda quest’ultimo, l’IDF utilizza solo missili non guidati (noti come “bombe stupide” in contrapposizione ai missili di precisione o “intelligenti”) che possono distruggere interi edifici e, quindi, causare un numero enorme di morti. Anche se questo è orribile, non è la cosa peggiore. Ci sono almeno altri due elementi che includono questi esperimenti di intelligenza artificiale come crimini di terrorismo di Stato e crimini contro l’umanità. 1) Gli attacchi massicci contro i palestinesi sono automatizzati, cioè non c’è supervisione umana (né accuse di coscienza). I funzionari israeliani erano autorizzati a non controllare le informazioni fornite dall’intelligenza artificiale o ad analizzare ciò su cui fanno affidamento i computer per preparare le loro liste nere. 2) Le persone indicate da Lavender non vengono aggredite durante le loro attività militari, ma quando sono nelle loro case, generalmente di notte e con tutta la famiglia. Questa parte del sistema chiamata "Dov'è papà?" Avvisa l’esercito quando l’obiettivo entra in casa sua e bombarda l’intero edificio residenziale, provocando la morte del militante e di decine di altre persone, i cosiddetti “danni collaterali”. “Tutto è statistico, tutto è organizzato”, ha confessato uno dei soldati israeliani coinvolti con Lavender. Per ogni miliziano marchiato dalla macchina è consentito uccidere fino a 15 o 20 civili. Nel caso di un alto funzionario di Hamas, aggiunge la fonte, per ciascun comandante è autorizzata la morte di più di 100 civili. La fabbrica degli omicidi L’indagine su Lavender è stata condotta dal giornalista, militante pacifista e regista israeliano Yuval Abraham, che ha pubblicato sui media israeliani “+972 Magazine - Local Call”, due scioccanti inchieste su questa sinistra arma basata su algoritmi: “Una fabbrica di assassini” in massa” e “Lavender: la macchina IA che dirige i bombardamenti israeliani su Gaza”. Questi articoli dovrebbero essere presentati alla Corte internazionale di giustizia per giudicare le azioni decise dal governo di Benjamin Netanyahu. Abraham ha intervistato sei agenti militari e dell’intelligence israeliani che hanno utilizzato la macchina IA nell’attuale guerra a Gaza. Nelle guerre precedenti – raccontò una spia ad Abraham – poiché si trattava di un modo “particolarmente brutale” di uccidere qualcuno, gli obiettivi umani venivano contrassegnati con molta attenzione. Furono bombardati solo gli alti comandanti militari. “Un ufficiale doveva verificare che la persona fosse effettivamente un membro della leadership militare di Hamas, scoprire dove viveva, le sue informazioni di contatto, ecc. Allora, l’elenco degli obiettivi era di poche dozzine e il personale dell’intelligence poteva gestire individualmente il lavoro”. Ma in questa nuova fase a Gaza tutto è diventato “flessibile”. Prima le liste avevano 50 obiettivi all'anno; ora 100 al giorno perché migliaia di sospettati di rango inferiore hanno cominciato ad essere inclusi. Poiché gli ufficiali non erano in grado di farcela, l’esercito israeliano ha deciso di fare affidamento su software automatizzati e intelligenza artificiale e di scartare il giudizio del personale umano. “Al suo apice, il sistema è riuscito a generare 37.000 famiglie come potenziali bersagli”, ha detto un intervistato da Abraham. “Una fonte mi ha assicurato che il personale umano 'serviva da timbro per approvare i bombardamenti, ma le decisioni venivano prese dalla macchina. Abbiamo trattato le istruzioni di Lavanda come se fossero decisioni umane. Personalmente gli abbiamo dedicato circa 20 secondi.' “Ciò è stato fatto pur sapendo che il sistema commette quelli che sono considerati “errori” in circa il 10% dei casi e che a volte segnala persone che non hanno alcun legame con i gruppi militanti”, ha scritto il giornalista israeliano. Un alto ufficiale che Abraham chiama, nella sua indagine, come “B” ha elaborato la sua esperienza. “Alle 5 del mattino è arrivata l'Aeronautica Militare e ha bombardato tutte le case che avevamo segnalato. Abbiamo eliminato migliaia di persone. Non li abbiamo esaminati uno per uno: abbiamo inserito tutto in sistemi automatizzati. Abbiamo bombardato l'obiettivo e il suo edificio. “Tutto era statistico, tutto era organizzato”. "Sono rimasta molto sorpresa che ci abbiano chiesto di bombardare un intero edificio per uccidere un soldato semplice la cui importanza nei combattimenti era scarsa", ha detto una fonte. "Ho soprannominato quegli obiettivi 'bersagli spazzatura.' Anche così, questo mi è sembrato più etico rispetto a quando bombardavamo solo come deterrente”. Un altro intervistato citato da Abraham come “C” ha ammesso: “Per questi casi usiamo “bombe stupide”. Più economico. Non vuoi sprecare bombe costose su persone non importanti; “È molto costoso per il Paese e c’è carenza”. L’IDF – come fece il Pentagono in Vietnam – misura anche le prestazioni delle sue truppe e i risultati della guerra in base al numero di persone uccise, il sinistro “conteggio dei corpi”. “In una giornata senza obiettivi, abbiamo utilizzato un criterio più ampio per attaccare”, ha confessato “B”. "Ci facevano costantemente pressione: 'Portateci più obiettivi!' Ci hanno urlato contro molto. Con la pressione costante per generare più obiettivi, abbiamo raggiunto i nostri obiettivi molto rapidamente. Utilizzando i criteri del libero mercato, un membro anziano della Divisione Obiettivi Amministrativi dell'IDF identifica questo omicidio di massa con una fabbrica. “Prepariamo gli obiettivi automaticamente e lavoriamo secondo un elenco. In realtà è come una fabbrica. Lavoriamo rapidamente e non c'è tempo per approfondire troppo l'obiettivo. Veniamo giudicati in base al numero di obiettivi che riusciamo a generare”. Ciò spiega l'altissimo numero di civili che non hanno preso parte ai combattimenti, ma che sono stati annientati dagli attacchi aerei israeliani. I morti sono già quasi 35mila, il 75% dei quali donne e bambini. Cinque diverse fonti hanno confermato al giornalista israeliano che i servizi segreti del loro paese conoscono in anticipo il numero di civili che potrebbero morire in un attacco contro una residenza privata, e vengono registrati come "danni collaterali". Chi è il dottor Frankenstein?  Dopo un'indagine e un tracciamento informatico senza precedenti, il quotidiano britannico The Guardian ha scoperto e pubblicato, il 5 aprile, un segreto gelosamente custodito: la vera identità del creatore del macabro sistema Lavender. Si tratta del generale di brigata Yossi Soriel, comandante dell'Unità 8200, una delle agenzie di sorveglianza più potenti al mondo (l'equivalente della National Security Agency americana), informazione poi confermata dal quotidiano israeliano Haaretz. Fino a tre settimane fa si sapeva solo che l’inventore di questa tecnologia “coinvolgente ed emozionante”, come l’hanno catalogata diversi utenti, era l’anonimo autore del libro “Il team uomo-macchina: come creare una sinergia tra uomo e intelligenza artificiale che rivoluzionerà il nostro mondo” (The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence that Will Revolutionize Our World) pubblicato nel 2021. Nel libro, Soriel difende il progetto di una macchina speciale che elabora rapidamente enormi quantità di dati e genera potenziali “bersagli” per attacchi militari in una guerra. Secondo l’autore, ciò risolverebbe “il collo di bottiglia umano sia nell’individuare più obiettivi, sia nel prendere decisioni che approvino gli attacchi”. E si lamenta: “Gli esseri umani non possono elaborare così tante informazioni. Non importa quante persone siano state incaricate di generare obiettivi durante la guerra, non genererai comunque abbastanza obiettivi al giorno. Nelle ultime settimane Israele ha attaccato con missili le ambulanze con i feriti e i camionisti che trasportavano aiuti umanitari. Di fronte a questo, di fronte a Lavanda, un enigma mi tormenta: come potrebbe continuare la pulsione genocida, la progettazione del dolore sul corpo di un altro essere umano, in un settore degli ebrei, nei discendenti delle vittime delle atrocità naziste? il godimento della crudeltà? La lavanda non è Hollywood. È Auschwitz, è Hiroshima, è Gaza.   Fonte: https://www.eldestapeweb.com/internacionales/medio-oriente/gaza-una-masacre-planificada-con-inteligencia-artificial-20244280532