venerdì 12 aprile 2024

“Lavender”: ​​la macchina IA che dirige i bombardamenti israeliani a Gaza

Di Yuval Abraham

L’esercito israeliano ha contrassegnato decine di migliaia di abitanti di Gaza come sospettati di omicidio, utilizzando un sistema di targeting basato sull’intelligenza artificiale con scarsa supervisione umana e una politica permissiva per le vittime, rivelano +972 e Local Call.


Nel 2021, un libro intitolato "Il team uomo-macchina: come creare una sinergia tra l'intelligenza umana e l'intelligenza artificiale che rivoluzionerà il nostro mondo" è stato pubblicato in inglese con lo pseudonimo di "Brigadier General YS". In esso, l'autore, un uomo che abbiamo confermato di essere l’attuale comandante dell’unità d’élite dell’intelligence israeliana 8200 – giustifica la progettazione di una macchina speciale in grado di elaborare rapidamente enormi quantità di dati per generare migliaia di potenziali “bersagli” per attacchi militari nel vivo di una guerra. Tale tecnologia, scrive, risolverebbe quello che ha descritto come un “collo di bottiglia umano sia per l’individuazione dei nuovi obiettivi che per il processo decisionale per approvarli”.

Si scopre che una macchina del genere esiste davvero. Una nuova indagine di +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come “Lavender”, presentato qui per la prima volta. Secondo sei ufficiali dell’intelligence israeliana, che hanno tutti prestato servizio nell’esercito durante l’attuale guerra nella Striscia di Gaza e sono stati coinvolti in prima persona nell’uso dell’intelligenza artificiale per generare obiettivi da assassinare, Lavender ha svolto un ruolo centrale nel bombardamento senza precedenti di Palestinesi, soprattutto durante le prime fasi della guerra. Infatti, secondo le fonti, la sua influenza sulle operazioni militari era tale che essenzialmente trattavano i risultati della macchina IA “come se fosse una decisione umana”.

Formalmente, il sistema Lavender è progettato per contrassegnare tutti i sospetti agenti nelle ali militari di Hamas e della Jihad islamica palestinese (PIJ), compresi quelli di basso rango, come potenziali obiettivi di bombardamento. Le fonti hanno riferito a +972 e Local Call che, durante le prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha individuato fino a 37.000 palestinesi come sospetti militanti – e le loro case – per possibili attacchi aerei.

Durante le prime fasi della guerra, l'esercito diede ampia approvazione agli ufficiali affinché adottassero le liste di uccisione di Lavender, senza alcun obbligo di verificare attentamente il motivo per cui la macchina faceva quelle scelte o di esaminare i dati grezzi di intelligence su cui si basavano. Una fonte ha affermato che il personale umano spesso fungeva solo da “timbro di gomma” per le decisioni della macchina, aggiungendo che, normalmente, avrebbe dedicato personalmente solo circa “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento – solo per assicurarsi che Lavender- l'obiettivo contrassegnato è maschio. Ciò nonostante si sapesse che il sistema commette quelli che sono considerati “errori” in circa il 10% dei casi, ed è noto che occasionalmente contrassegna individui che hanno semplicemente un legame debole con gruppi militanti, o nessun legame.

Inoltre, l’esercito israeliano ha attaccato sistematicamente le persone prese di mira mentre si trovavano nelle loro case – di solito di notte, quando erano presenti tutti i loro famigliari – piuttosto che nel corso di un’attività militare. Secondo le fonti ciò era dovuto al fatto che, dal punto di vista dell'intelligence, era più facile localizzare le persone nelle loro case private. Ulteriori sistemi automatizzati, incluso uno chiamato "Dov'è papà?" rivelati qui per la prima volta, venivano utilizzati appositamente per rintracciare le persone prese di mira ed effettuare attentati quando entravano nelle residenze delle loro famiglie.

Il risultato, come hanno testimoniato le fonti, è che migliaia di palestinesi – la maggior parte dei quali donne e bambini o persone non coinvolte nei combattimenti – sono stati spazzati via dagli attacchi aerei israeliani, soprattutto durante le prime settimane di guerra, a causa dell’intelligenza artificiale. decisioni del programma.

"Non eravamo interessati a uccidere gli agenti [di Hamas] solo quando si trovavano in un edificio militare o erano impegnati in un'attività militare", ha detto A., un ufficiale dell'intelligence, a +972 e Local Call. “Al contrario, l’IDF li ha bombardati nelle case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è costruito per cercarli in queste situazioni”.

La macchina Lavender si unisce a un altro sistema di intelligenza artificiale, “The Gospel”, le cui informazioni sono state rivelate in una precedente indagine di +972 e Local Call nel novembre 2023, nonché nelle pubblicazioni dell’esercito israeliano. Una differenza fondamentale tra i due sistemi sta nella definizione dell’obiettivo: mentre The Gospel contrassegna gli edifici e le strutture da cui secondo l’esercito operano i militanti, Lavender contrassegna le persone e le inserisce in una lista di uccisioni.

Inoltre, secondo le fonti, quando si è trattato di prendere di mira i presunti giovani militanti contrassegnati da Lavender, l'esercito ha preferito utilizzare solo missili non guidati, comunemente noti come bombe “stupide” (a differenza delle bombe di precisione “intelligenti”), che possono distruggere interi edifici sopra i loro occupanti e causano perdite significative. "Non vuoi sprecare bombe costose per persone non importanti: è molto costoso per il paese e c'è carenza [di quelle bombe]", ha detto C., uno degli ufficiali dell'intelligence. Un'altra fonte ha affermato di aver autorizzato personalmente il bombardamento di "centinaia" di case private di presunti giovani agenti contrassegnati da Lavender, con molti di questi attacchi che hanno ucciso civili e intere famiglie come "danno collaterale".

Con una mossa senza precedenti, secondo due fonti, durante le prime settimane di guerra l'esercito decise anche che, per ogni giovane agente di Hamas segnalato da Lavender, era consentito uccidere fino a 15 o 20 civili; in passato, i militari non autorizzavano alcun “danno collaterale” durante gli omicidi di militanti di basso rango. Le fonti aggiungono che, nel caso in cui l'obiettivo fosse un alto funzionario di Hamas con il grado di comandante di battaglione o di brigata, l'esercito ha autorizzato in più occasioni l'uccisione di più di 100 civili nell'assassinio di un solo comandante.

La seguente indagine è organizzata secondo le sei fasi cronologiche della produzione altamente automatizzata di bersagli da parte dell'esercito israeliano nelle prime settimane della guerra di Gaza. Innanzitutto, spieghiamo la stessa macchina Lavender, che ha marchiato decine di migliaia di palestinesi utilizzando l’intelligenza artificiale. In secondo luogo, riveliamo la domanda "Dov'è papà?" sistema, che tracciava questi obiettivi e segnalava all’esercito quando entravano nelle loro case. In terzo luogo, descriviamo come furono scelte le bombe “stupide” per colpire queste case.

In quarto luogo, spieghiamo come l’esercito abbia allentato il numero consentito di civili che potrebbero essere uccisi durante il bombardamento di un obiettivo. In quinto luogo, notiamo come i software automatizzati calcolassero in modo impreciso il numero di non combattenti in ciascuna famiglia. In sesto luogo, mostriamo come in diverse occasioni, quando un'abitazione veniva colpita, di solito di notte, l'obiettivo individuale a volte non si trovava affatto all'interno, perché gli ufficiali militari non verificavano l'informazione in tempo reale. 

FASE 1: GENERAZIONE DI OBIETTIVI

'Una volta che si diventa automatici, la generazione di bersagli impazzisce'
Nell'esercito israeliano, il termine "bersaglio umano" si riferiva in passato a un agente militare senior che, secondo le regole del Dipartimento di Diritto Internazionale dell'esercito, può essere uccisi nella loro abitazione privata anche se ci sono civili in giro. Fonti dell'intelligence hanno detto a +972 e Local Call che durante le precedenti guerre israeliane, poiché questo era un modo "particolarmente brutale" per uccidere qualcuno - spesso uccidendo un'intera famiglia accanto all'obiettivo - tali obiettivi umani venivano contrassegnati con molta attenzione e solo i comandanti militari anziani erano bombardati nelle loro case, per mantenere il principio di proporzionalità previsto dal diritto internazionale.

Ma dopo il 7 ottobre – quando i militanti guidati da Hamas hanno lanciato un attacco mortale contro le comunità del sud di Israele, uccidendo circa 1.200 persone e rapendone 240 – l’esercito, dicono le fonti, ha adottato un approccio radicalmente diverso. Nell'ambito dell'Operazione Spade di Ferro, l'esercito ha deciso di designare tutti gli agenti dell'ala militare di Hamas come obiettivi umani, indipendentemente dal loro grado o importanza militare. E questo ha cambiato tutto.

La nuova politica poneva anche un problema tecnico all’intelligence israeliana. Nelle guerre precedenti, per autorizzare l'assassinio di un singolo obiettivo umano, un ufficiale doveva passare attraverso un lungo e complesso processo di "incriminazione": verificare che la persona fosse effettivamente un membro anziano dell'ala militare di Hamas, trovare sapere dove viveva, i suoi recapiti e sapere finalmente quando era a casa in tempo reale. Quando l'elenco degli obiettivi contava solo poche dozzine di agenti senior, il personale dell'intelligence poteva gestire individualmente il lavoro necessario per incriminarli e localizzarli.

Tuttavia, una volta che l’elenco fu ampliato per includere decine di migliaia di agenti di rango inferiore, l’esercito israeliano capì di dover fare affidamento su software automatizzati e intelligenza artificiale. Il risultato, testimoniano le fonti, è stato che il ruolo del personale umano nell’incriminare i palestinesi come agenti militari è stato messo da parte e l’intelligenza artificiale ha invece svolto la maggior parte del lavoro. Secondo quattro delle fonti che hanno parlato con +972 e Local Call, Lavender – che è stato sviluppato per creare obiettivi umani nell’attuale guerra – ha contrassegnato circa 37.000 palestinesi come sospetti “militanti di Hamas”, la maggior parte dei quali giovani, per assassinio (il Il portavoce dell'IDF ha negato l'esistenza di tale kill list in una dichiarazione a +972 e Local Call).

"Non sapevamo chi fossero gli agenti junior, perché Israele non li seguiva di routine [prima della guerra]", ha spiegato l'ufficiale senior B. a +972 e Local Call, illuminando il motivo dietro lo sviluppo di questa particolare macchina bersaglio per la guerra in corso. “Volevano permetterci di attaccare [gli agenti junior] automaticamente. Quello è il Santo Graal. Una volta che si passa all’automatico, la generazione del target impazzisce”.

Le fonti affermano che l'approvazione per l'adozione automatica delle liste di uccisione di Lavender, che in precedenza erano state utilizzate solo come strumento ausiliario, è stata concessa circa due settimane dall'inizio della guerra, dopo che il personale dell'intelligence aveva controllato "manualmente" l'accuratezza di un campione casuale di diverse centinaia di obiettivi. selezionati dal sistema AI. Quando il campione rilevò che i risultati di Lavender avevano raggiunto una precisione del 90% nell'identificazione dell'affiliazione di un individuo con Hamas, l'esercito autorizzò l'uso generalizzato del sistema. Da quel momento, fonti hanno affermato che se Lavender avesse deciso che un individuo era un militante di Hamas, gli sarebbe stato essenzialmente chiesto di trattarlo come un ordine, senza alcun obbligo di verificare in modo indipendente il motivo per cui la macchina aveva fatto quella scelta o di esaminare i dati grezzi di intelligence su cui si basava. è basato.

"Alle 5 del mattino, [l'aeronautica] sarebbe arrivata e avrebbe bombardato tutte le case che avevamo segnalato", ha detto B.. “Abbiamo fatto fuori migliaia di persone. Non li abbiamo esaminati uno per uno: abbiamo inserito tutto in sistemi automatizzati e non appena uno degli [individui marchiati] è tornato a casa, è diventato immediatamente un bersaglio. Abbiamo bombardato lui e la sua casa”.

"È stato molto sorprendente per me che ci fosse stato chiesto di bombardare una casa per uccidere un soldato di terra, la cui importanza nei combattimenti era così bassa", ha detto una fonte sull'uso dell'intelligenza artificiale per marcare presunti militanti di basso rango. “Ho soprannominato quegli obiettivi 'bersagli spazzatura'. Tuttavia, li ho trovati più etici degli obiettivi che abbiamo bombardato solo per “deterrenza”: grattacieli che vengono evacuati e abbattuti solo per causare distruzione”.

I risultati mortali di questo allentamento delle restrizioni nella fase iniziale della guerra furono sconcertanti. Secondo i dati del Ministero della Sanità palestinese a Gaza, sui quali l’esercito israeliano ha fatto affidamento quasi esclusivamente dall’inizio della guerra, Israele ha ucciso circa 15.000 palestinesi – quasi la metà delle vittime finora – nelle prime sei settimane di guerra. , fino a quando il 24 novembre non fu concordato un cessate il fuoco di una settimana.

"Più informazioni e varietà, meglio è"
Il software Lavender analizza le informazioni raccolte sulla maggior parte dei 2,3 milioni di residenti della Striscia di Gaza attraverso un sistema di sorveglianza di massa, quindi valuta e classifica la probabilità che ogni singola persona sia attiva nell'ala militare di Hamas o PIJ. Secondo le fonti, la macchina attribuisce a quasi ogni singola persona a Gaza un punteggio da 1 a 100, esprimendo la probabilità che sia un militante.

Lavender impara a identificare le caratteristiche di noti agenti di Hamas e PIJ, le cui informazioni sono state fornite alla macchina come dati di addestramento, e quindi a individuare queste stesse caratteristiche - chiamate anche "caratteristiche" - tra la popolazione generale, hanno spiegato le fonti. Un individuo che presenta diverse caratteristiche incriminanti raggiungerà un punteggio elevato e quindi diventerà automaticamente un potenziale bersaglio per l'assassinio.

In "The Human-Machine Team", il libro a cui si fa riferimento all'inizio di questo articolo, l'attuale comandante dell'Unità 8200 sostiene un tale sistema senza fare riferimento a Lavender per nome. (Anche il comandante stesso non è nominato, ma cinque fonti in 8200 hanno confermato che il comandante è l'autore, come riportato anche da Haaretz.) Descrivendo il personale umano come un "collo di bottiglia" che limita la capacità dell'esercito durante un'operazione militare, il comandante lamenta: “Noi [esseri umani] non possiamo elaborare così tante informazioni. Non importa quante persone hai incaricato di produrre obiettivi durante la guerra: non riesci comunque a produrre abbastanza obiettivi al giorno.

La soluzione a questo problema, dice, è l’intelligenza artificiale. Il libro offre una breve guida per costruire una “macchina bersaglio”, simile nella descrizione a Lavender, basata su algoritmi di intelligenza artificiale e apprendimento automatico. In questa guida sono inclusi diversi esempi delle “centinaia e migliaia” di funzionalità che possono aumentare la valutazione di un individuo, come essere in un gruppo Whatsapp con un militante noto, cambiare cellulare ogni pochi mesi e cambiare indirizzo frequentemente.

"Più informazioni e più varietà, meglio è", scrive il comandante. "Informazioni visive, informazioni cellulari, connessioni ai social media, informazioni sul campo di battaglia, contatti telefonici, foto." Mentre gli esseri umani inizialmente selezionano queste caratteristiche, continua il comandante, col tempo la macchina arriverà a identificare le caratteristiche da sola. Ciò, secondo lui, può consentire ai militari di creare “decine di migliaia di obiettivi”, mentre la decisione effettiva se attaccarli o meno rimarrà una decisione umana.

Il libro non è l’unica volta in cui un alto comandante israeliano ha accennato all’esistenza di macchine bersaglio umane come Lavender. +972 e Local Call hanno ottenuto il filmato di una conferenza privata tenuta dal comandante del centro segreto di scienza dei dati e intelligenza artificiale dell'Unità 8200, “Col. Yoav", alla settimana dell'intelligenza artificiale dell'Università di Tel Aviv nel 2023, di cui all'epoca fu riportato dai media israeliani.

Nella conferenza, il comandante parla di una nuova e sofisticata macchina bersaglio utilizzata dall'esercito israeliano che rileva le "persone pericolose" in base alla loro somiglianza con gli elenchi esistenti di militanti conosciuti su cui è stato addestrato. "Utilizzando il sistema, siamo riusciti a identificare i comandanti delle squadre missilistiche di Hamas", ha affermato il "Col. Yoav” ha detto nella conferenza, riferendosi all'operazione militare israeliana a Gaza del maggio 2021, quando la macchina fu utilizzata per la prima volta.

Le diapositive di presentazione della conferenza, ottenute anche da +972 e Local Call, contengono illustrazioni di come funziona la macchina: riceve dati sugli agenti di Hamas esistenti, impara a notare le loro caratteristiche e poi valuta gli altri palestinesi in base a quanto sono simili. ai militanti.

"Classifichiamo i risultati e determiniamo la soglia [alla quale attaccare un bersaglio]", "Col. Yoav” ha detto nel corso della conferenza, sottolineando che “alla fine, le decisioni saranno prese da persone in carne ed ossa. In ambito difesa, eticamente parlando, diamo molta importanza a questo. Questi strumenti hanno lo scopo di aiutare [gli ufficiali dell’intelligence] a rompere le loro barriere”.

In pratica, tuttavia, le fonti che hanno utilizzato Lavender negli ultimi mesi affermano che l’azione umana e la precisione sono state sostituite dalla creazione di bersagli di massa e dalla letalità.

"Non esisteva una politica di "errore zero""
B., un alto ufficiale che usava Lavender, ha fatto eco a +972 e Local Call che nella guerra attuale, gli ufficiali non erano tenuti a rivedere in modo indipendente le valutazioni del sistema di intelligenza artificiale, al fine di risparmiare tempo e consentire la produzione di massa di obiettivi umani senza ostacoli.

“Tutto era statistico, tutto era pulito – era molto secco”, ha detto B.. Ha osservato che questa mancanza di supervisione è stata consentita nonostante i controlli interni dimostrassero che i calcoli di Lavender erano considerati accurati solo il 90% delle volte; in altre parole, si sapeva in anticipo che il 10% degli obiettivi umani destinati all’assassinio non erano affatto membri dell’ala militare di Hamas.

Ad esempio, le fonti hanno spiegato che la macchina Lavender a volte segnalava erroneamente individui che avevano modelli di comunicazione simili a noti agenti di Hamas o PIJ - inclusi agenti di polizia e protezione civile, parenti di militanti, residenti che avevano un nome e un soprannome identico a quello di un e gli abitanti di Gaza che hanno utilizzato un dispositivo che una volta apparteneva a un agente di Hamas.

“Quanto vicino deve essere una persona ad Hamas per essere [considerata da una macchina di intelligenza artificiale] affiliata all’organizzazione?” ha detto una fonte critica nei confronti dell'inesattezza di Lavender. “È un confine vago. Una persona che non riceve uno stipendio da Hamas, ma lo aiuta in ogni genere di cose, è un agente di Hamas? Qualcuno che è stato in Hamas in passato, ma che oggi non c'è più, è un agente di Hamas? Ognuna di queste caratteristiche – caratteristiche che una macchina segnalerebbe come sospette – è imprecisa”.

Problemi simili esistono con la capacità delle macchine bersaglio di valutare il telefono utilizzato da un individuo contrassegnato per l'assassinio. “In guerra, i palestinesi cambiano continuamente telefono”, ha detto la fonte. “Le persone perdono i contatti con le loro famiglie, danno il telefono a un amico o a una moglie, forse lo perdono. Non c’è modo di fare affidamento al 100% sul meccanismo automatico che determina quale numero [di telefono] appartiene a chi”.

Secondo le fonti, l'esercito sapeva che il minimo controllo umano in atto non avrebbe scoperto questi difetti. “Non esisteva una politica di 'errore zero'. Gli errori venivano trattati statisticamente", ha detto una fonte che ha utilizzato Lavender. “A causa della portata e della portata, il protocollo prevedeva che anche se non si è sicuri che la macchina sia corretta, si sa che statisticamente va bene. Quindi provaci.

"Si è dimostrato valido", ha detto B., la fonte senior. “C'è qualcosa nell'approccio statistico che ti fissa a una certa norma e standard. C’è stata una quantità illogica di [bombardamenti] in questa operazione. Questo non ha eguali, nella mia memoria. E ho molta più fiducia in un meccanismo statistico di un soldato che ha perso un amico due giorni fa. Tutti i presenti, me compreso, hanno perso delle persone il 7 ottobre. La macchina lo ha fatto con freddezza. E questo ha reso tutto più semplice”.

Un'altra fonte dell'intelligence, che ha difeso la dipendenza dalle liste di uccisioni dei sospetti palestinesi generate da Lavender, ha sostenuto che valeva la pena investire il tempo di un ufficiale dell'intelligence solo per verificare le informazioni se l'obiettivo era un comandante senior di Hamas. "Ma quando si tratta di un militante giovane, non è il caso di investire tempo e manodopera in esso", ha detto. “In guerra, non c’è tempo per incriminare ogni obiettivo. Quindi sei disposto a prenderti il ​​margine di errore derivante dall’uso dell’intelligenza artificiale, rischiando danni collaterali e la morte di civili, e rischiando di attaccare per errore, e convivere con esso”.

B. ha detto che la ragione di questa automazione è stata una spinta costante a generare più obiettivi da assassinare. “In una giornata senza obiettivi [la cui valutazione delle caratteristiche era sufficiente ad autorizzare un attacco], abbiamo attaccato a una soglia inferiore. Eravamo costantemente sotto pressione: "Portateci più obiettivi". Ci hanno davvero urlato contro. Abbiamo finito di uccidere i nostri obiettivi molto rapidamente.

Ha spiegato che abbassando la soglia di valutazione di Lavender, si contrassegnerebbero più persone come bersagli per gli attacchi. “Al suo apice, il sistema è riuscito a generare 37.000 persone come potenziali bersagli umani”, ha detto B. “Ma i numeri cambiano continuamente, perché dipende da dove si fissa il livello di cosa sia un agente di Hamas. Ci sono stati momenti in cui la definizione di agente di Hamas era più ampia, e poi la macchina ha cominciato a portarci tutti i tipi di personale della protezione civile, agenti di polizia, sui quali sarebbe un peccato sprecare bombe. Aiutano il governo di Hamas, ma non mettono realmente in pericolo i soldati”.

Una fonte che ha lavorato con il team militare di data science che ha addestrato Lavender ha affermato che nella macchina sono stati inseriti anche i dati raccolti dai dipendenti del Ministero della Sicurezza Interna gestito da Hamas, che non considera militanti. "Mi ha infastidito il fatto che quando Lavender è stato addestrato, hanno usato il termine 'operativo di Hamas' in modo approssimativo e hanno incluso persone che erano operatori della protezione civile nei dati di formazione", ha detto.

La fonte ha aggiunto che anche se si crede che queste persone meritino di essere uccise, addestrare il sistema in base ai loro profili di comunicazione ha reso Lavender più propenso a selezionare civili per errore quando i suoi algoritmi sono stati applicati alla popolazione generale. "Dato che si tratta di un sistema automatico che non è gestito manualmente dagli esseri umani, il significato di questa decisione è drammatico: significa includere molte persone con un profilo di comunicazione civile come potenziali bersagli."

"Abbiamo solo verificato che l'obiettivo fosse un uomo"
L'esercito israeliano respinge categoricamente queste affermazioni. In una dichiarazione a +972 e Local Call, il portavoce dell’IDF ha negato l’uso dell’intelligenza artificiale per incriminare gli obiettivi, affermando che si tratta semplicemente di “strumenti ausiliari che assistono gli ufficiali nel processo di incriminazione”. La dichiarazione prosegue: “In ogni caso, è necessario un esame indipendente da parte di un analista [dell’intelligence], che verifichi che gli obiettivi identificati siano obiettivi legittimi per l’attacco, in conformità con le condizioni stabilite dalle direttive dell’IDF e dal diritto internazionale”.

Tuttavia, le fonti hanno affermato che l’unico protocollo di supervisione umana in atto prima di bombardare le case dei presunti militanti “junior” contrassegnati da Lavender era quello di condurre un unico controllo: assicurarsi che l’obiettivo selezionato dall’IA fosse maschio anziché femmina. L'ipotesi nell'esercito era che se l'obiettivo era una donna, la macchina probabilmente aveva commesso un errore, perché non ci sono donne tra i ranghi delle ali militari di Hamas e PIJ.

"Un essere umano doveva [verificare l'obiettivo] solo per pochi secondi", ha detto B., spiegando che questo è diventato il protocollo dopo aver realizzato che il sistema Lavender "funzionava bene" per la maggior parte del tempo. “In un primo momento abbiamo effettuato dei controlli per garantire che la macchina non si confondesse. Ma a un certo punto ci siamo affidati al sistema automatico e abbiamo controllato solo che [l’obiettivo] fosse un uomo: questo è stato sufficiente. Non ci vuole molto tempo per capire se qualcuno ha una voce maschile o femminile."

Per condurre il controllo maschio/femmina, B. ha affermato che nella guerra attuale, “investirei 20 secondi per ciascun bersaglio in questa fase, e ne farei dozzine ogni giorno. Come essere umano non avevo alcun valore aggiunto, a parte essere un segno di approvazione. Ha risparmiato molto tempo. Se [l’agente] si avvicinasse al meccanismo automatizzato e verificassi che fosse un uomo, ci sarebbe il permesso di bombardarlo, previo esame dei danni collaterali”.

In pratica, secondo le fonti, ciò significava che per gli uomini civili contrassegnati per errore da Lavender, non esisteva alcun meccanismo di supervisione per rilevare l'errore. Secondo B., un errore comune si verificava “se l’obiettivo [di Hamas] dava [il suo telefono] a suo figlio, a suo fratello maggiore o semplicemente a un uomo a caso. Quella persona verrà bombardata nella sua casa con la sua famiglia. Ciò accadeva spesso. Questi sono stati la maggior parte degli errori causati da Lavender”, ha detto B..

FASE 2: COLLEGARE GLI OBIETTIVI ALLE CASE FAMIGLIA

"La maggior parte delle persone che avete ucciso erano donne e bambini"
La fase successiva nella procedura di assassinio dell'esercito israeliano è identificare dove attaccare gli obiettivi generati da Lavender.

In una dichiarazione a +972 e Local Call, il portavoce dell'IDF ha affermato in risposta a questo articolo che "Hamas colloca i suoi agenti operativi e le sue risorse militari nel cuore della popolazione civile, usa sistematicamente la popolazione civile come scudi umani e conduce combattimenti dall'interno strutture civili, compresi siti sensibili come ospedali, moschee, scuole e strutture delle Nazioni Unite. L’IDF è vincolato e agisce secondo il diritto internazionale, dirigendo i suoi attacchi solo contro obiettivi militari e agenti militari”.

Le sei fonti con cui abbiamo parlato hanno fatto eco in una certa misura a questo, affermando che l'ampio sistema di tunnel di Hamas passa deliberatamente sotto ospedali e scuole; che i militanti di Hamas utilizzano le ambulanze per spostarsi; e che innumerevoli mezzi militari sono stati situati vicino a edifici civili. Le fonti sostengono che molti attacchi israeliani uccidono civili come risultato di queste tattiche di Hamas – una caratterizzazione che i gruppi per i diritti umani avvertono elude l'onere di Israele di infliggere le vittime.

Tuttavia, contrariamente alle dichiarazioni ufficiali dell’esercito israeliano, le fonti hanno spiegato che una delle ragioni principali del numero senza precedenti di vittime degli attuali bombardamenti israeliani è il fatto che l’esercito ha sistematicamente attaccato obiettivi nelle loro case private, insieme alle loro famiglie – in parte perché era più facile dal punto di vista dell'intelligence contrassegnare le case familiari utilizzando sistemi automatizzati.

Infatti, diverse fonti hanno sottolineato che, a differenza di numerosi casi di agenti di Hamas impegnati in attività militari da aree civili, nel caso di attacchi assassini sistematici, l'esercito ha regolarmente scelto attivamente di bombardare sospetti militanti quando si trovavano all'interno di abitazioni civili da cui non provenivano militari. ha avuto luogo l'attività. Questa scelta, hanno detto, riflette il modo in cui è concepito il sistema israeliano di sorveglianza di massa a Gaza.

Le fonti hanno detto a +972 e Local Call che poiché tutti a Gaza avevano una casa privata alla quale potevano essere associati, i sistemi di sorveglianza dell'esercito potevano facilmente e automaticamente “collegare” gli individui alle case familiari. Per identificare in tempo reale il momento in cui gli operatori entrano nelle loro case, sono stati sviluppati diversi software automatici aggiuntivi. Questi programmi tracciano migliaia di individui contemporaneamente, identificano quando sono a casa e inviano un avviso automatico all'ufficiale di destinazione, che poi contrassegna la casa per il bombardamento. Uno di questi software di tracciamento, rivelato qui per la prima volta, si chiama "Dov'è papà?"

"Inserisci centinaia [di obiettivi] nel sistema e aspetti di vedere chi puoi uccidere", ha detto una fonte a conoscenza del sistema. "Si chiama caccia ampia: fai copia-incolla dalle liste che il sistema di destinazione produce."

La prova di questa politica è evidente anche dai dati: durante il primo mese di guerra, più della metà delle vittime – 6.120 persone – appartenevano a 1.340 famiglie, molte delle quali furono completamente sterminate mentre erano nelle loro case, secondo i dati delle Nazioni Unite. . La percentuale di intere famiglie bombardate nelle loro case nell’attuale guerra è molto più alta che nell’operazione israeliana a Gaza del 2014 (che in precedenza era stata la guerra più mortale di Israele sulla Striscia), suggerendo ulteriormente l’importanza di questa politica.

Un'altra fonte ha affermato che ogni volta che il ritmo degli omicidi diminuiva, nuovi obiettivi venivano aggiunti a sistemi come Dov'è papà? per localizzare individui che entravano nelle loro case e potevano quindi essere bombardati. Ha detto che la decisione su chi inserire nei sistemi di tracciamento potrebbe essere presa da ufficiali di rango relativamente basso nella gerarchia militare.


"Un giorno, di mia spontanea volontà, ho aggiunto qualcosa come 1.200 nuovi obiettivi al sistema [di tracciamento], perché il numero di attacchi [che stavamo conducendo] era diminuito", ha detto la fonte. “Per me aveva senso. In retrospettiva, sembra che abbia preso una decisione seria. E tali decisioni non sono state prese ad alti livelli”.

Le fonti affermano che nelle prime due settimane di guerra, "diverse migliaia" di obiettivi furono inizialmente inseriti nei programmi di localizzazione come Dov'è papà?. Tra questi figurano tutti i membri dell'unità delle forze speciali d'élite di Hamas, la Nukhba, tutti gli agenti anticarro di Hamas e chiunque sia entrato in Israele il 7 ottobre. Ma in breve tempo, la lista delle vittime è stata drasticamente ampliata.

"Alla fine sono stati tutti [segnati da Lavender]", ha spiegato una fonte. "Decine di migliaia. Ciò accadde poche settimane dopo, quando le brigate [israeliane] entrarono a Gaza, e nelle aree settentrionali c’erano già meno persone non coinvolte [civili]”. Secondo questa fonte, anche alcuni minorenni sarebbero stati segnalati da Lavender come bersaglio di bombardamenti. "Normalmente, gli agenti hanno più di 17 anni, ma questa non era una condizione."

Lavanda e sistemi come Dov'è papà? furono così combinati con effetti mortali, uccidendo intere famiglie, dicono le fonti. Aggiungendo un nome dagli elenchi generati da Lavender alla cartella Dov'è papà? sistema di localizzazione domestica, ha spiegato A., la persona marchiata verrebbe messa sotto sorveglianza continua e potrebbe essere attaccata non appena mettesse piede nella sua casa, facendo crollare la casa su tutti coloro che si trovavano all'interno.

"Diciamo che calcoliamo [che c'è un] Hamas [operativo] più 10 [civili in casa]", ha detto A.. “Di solito, questi 10 saranno donne e bambini. È assurdo che la maggior parte delle persone ch1e hai ucciso fossero donne e bambini."

FASE 3: SCEGLIERE UN'ARMA

'Di solito eseguivamo gli attacchi con "bombe stupide"'
Una volta che Lavender ha contrassegnato un obiettivo per l'assassinio, il personale dell'esercito ha verificato che si tratta di un maschio e il software di localizzazione ha localizzato l'obiettivo nella loro casa, il successivo La fase successiva sta scegliendo le munizioni con cui bombardarli.

Nel dicembre 2023, la CNN ha riferito che, secondo le stime dell’intelligence statunitense, circa il 45% delle munizioni utilizzate dall’aeronautica israeliana a Gaza erano bombe “stupide”, note per causare più danni collaterali rispetto alle bombe guidate. In risposta al rapporto della CNN, un portavoce dell’esercito citato nell’articolo ha detto: “Come esercito impegnato nel rispetto del diritto internazionale e di un codice morale di condotta, stiamo dedicando vaste risorse per ridurre al minimo i danni ai civili che Hamas ha costretto a ricoprire il ruolo di scudi umani. La nostra guerra è contro Hamas, non contro il popolo di Gaza”.

Tre fonti di intelligence, tuttavia, hanno detto a +972 e Local Call che i giovani agenti contrassegnati da Lavender venivano assassinati solo con bombe stupide, nell'interesse di risparmiare armamenti più costosi. L’implicazione, ha spiegato una fonte, era che l’esercito non avrebbe colpito un obiettivo minore se avesse vissuto in un grattacielo, perché l’esercito non voleva spendere una “bomba da pavimento” più precisa e costosa (con effetti collaterali più limitati). ) per ucciderlo. Ma se un bersaglio minore viveva in un edificio di pochi piani, l'esercito era autorizzato a uccidere lui e tutti gli occupanti dell'edificio con una bomba stupida.

"È stato così con tutti gli obiettivi minori", ha testimoniato C., che ha utilizzato vari programmi automatizzati nell'attuale guerra. “L’unica domanda era: è possibile attaccare l’edificio in termini di danni collaterali? Perché di solito sferravamo gli attacchi con bombe stupide, e questo significava letteralmente distruggere l'intera casa sopra i suoi occupanti. Ma anche se l'attacco viene sventato, non ti interessa: passi immediatamente al bersaglio successivo. A causa del sistema, gli obiettivi non finiscono mai. Ne hai altri 36.000 in attesa.

FASE 4: AUTORIZZAZIONE DELLE VITTIME CIVILI

"Abbiamo attaccato quasi senza considerare i danni collaterali"
Una fonte ha affermato che quando si attaccavano agenti junior, compresi quelli contrassegnati da sistemi di intelligenza artificiale come Lavender, il numero di civili che potevano uccidere insieme a ciascun bersaglio veniva fissato durante la fase iniziale settimane di guerra fino a 20. Un'altra fonte ha affermato che il numero fisso era fino a 15. Questi "gradi di danno collaterale", come li chiamano i militari, sono stati applicati ampiamente a tutti i presunti militanti giovani, hanno detto le fonti, indipendentemente dal loro grado. , importanza militare ed età, e senza alcun esame specifico caso per caso per valutare il vantaggio militare di assassinarli rispetto al danno previsto per i civili.

Secondo A., che era ufficiale in una sala operativa bersaglio della guerra in corso, il dipartimento di diritto internazionale dell'esercito non ha mai dato prima un "approvazione così ampia" per un livello di danni collaterali così elevato. "Non si tratta solo del fatto che si può uccidere chiunque sia un soldato di Hamas, cosa che è chiaramente consentita e legittima in termini di diritto internazionale", ha detto A.. “Ma ti dicono direttamente: 'Puoi ucciderli insieme a molti civili.'

"Ogni persona che indossava l'uniforme di Hamas negli ultimi due anni potrebbe essere bombardata con 20 [civili uccisi come] danni collaterali, anche senza un permesso speciale", ha continuato A.. “In pratica, il principio di proporzionalità non esisteva”.

Secondo A., questa è stata la politica per la maggior parte del tempo in cui ha prestato servizio. Solo successivamente i militari hanno abbassato il livello dei danni collaterali. "Secondo questo calcolo potrebbero esserci anche 20 bambini per un giovane agente... In passato non era proprio così", spiega A.. Alla domanda sulla logica di sicurezza alla base di questa politica, A. ha risposto: “Letalità”.

Il grado di danno collaterale predeterminato e fisso ha contribuito ad accelerare la creazione di massa di bersagli utilizzando la macchina Lavender, hanno detto le fonti, perché ha fatto risparmiare tempo. B. affermò che il numero di civili che potevano uccidere nella prima settimana di guerra per sospettato giovane militante contrassegnato dall’AI era quindici, ma che questo numero “andava su e giù” nel tempo.

"All'inizio abbiamo attaccato quasi senza considerare i danni collaterali", ha detto B. della prima settimana dopo il 7 ottobre. "In pratica, non si contavano veramente le persone [in ogni casa bombardata], perché non si poteva davvero dire se sono a casa o no. Dopo una settimana sono iniziate le restrizioni sui danni collaterali. Il numero è sceso [da 15] a cinque, il che ha reso davvero difficile per noi attaccare, perché se tutta la famiglia fosse stata a casa, non avremmo potuto bombardarla. Poi hanno alzato di nuovo il numero”.

"Sapevamo che avremmo ucciso più di 100 civili"
Fonti hanno detto a +972 e Local Call che ora, in parte a causa della pressione americana, l'esercito israeliano non sta più generando in massa bersagli umani minori da bombardare nelle case dei civili. Il fatto che la maggior parte delle case nella Striscia di Gaza siano già state distrutte o danneggiate, e che quasi l'intera popolazione sia stata sfollata, ha compromesso anche la capacità dell'esercito di fare affidamento su database di intelligence e programmi automatizzati di localizzazione delle case.
E. ha affermato che il massiccio bombardamento dei giovani militanti è avvenuto solo nelle prime due settimane di guerra, e poi è stato interrotto principalmente per non sprecare bombe. “Esiste un’economia delle munizioni”, ha detto E.. “Hanno sempre avuto paura che ci sarebbe stata [una guerra] nell’arena settentrionale [con Hezbollah in Libano]. Non attaccano più questo tipo di persone [giovani]”.

Tuttavia, gli attacchi aerei contro gli alti comandanti di Hamas sono ancora in corso, e fonti affermano che per questi attacchi, l’esercito sta autorizzando l’uccisione di “centinaia” di civili per obiettivo – una politica ufficiale per la quale non esiste alcun precedente storico in Israele, o addirittura nelle recenti operazioni militari statunitensi.

"Nel bombardamento del comandante del battaglione Shuja'iya, sapevamo che avremmo ucciso più di 100 civili", ha ricordato B. di un bombardamento del 2 dicembre che, secondo il portavoce dell'IDF, mirava ad assassinare Wisam Farhat. “Per me, psicologicamente, è stato insolito. Oltre 100 civili: si oltrepassa la linea rossa”.

Amjad Al-Sheikh, un giovane palestinese di Gaza, ha detto che molti membri della sua famiglia sono rimasti uccisi in quell'attentato. Residente a Shuja'iya, a est della città di Gaza, quel giorno si trovava in un supermercato locale quando ha sentito cinque esplosioni che hanno frantumato le finestre di vetro.

"Sono corso a casa della mia famiglia, ma non c'erano più edifici lì", ha detto Al-Sheikh a +972 e Local Call. “La strada era piena di urla e fumo. Interi isolati residenziali si trasformarono in montagne di macerie e pozzi profondi. La gente cominciò a cercare nel cemento, usando le mani, e anche io, cercando segni della casa della mia famiglia”.

La moglie e la figlia piccola di Al-Sheikh sono sopravvissute - protette dalle macerie da un armadio caduto sopra di loro - ma ha trovato altri 11 membri della sua famiglia, tra cui le sue sorelle, i fratelli e i loro bambini piccoli, morti sotto le macerie. Secondo il gruppo per i diritti umani B'Tselem, i bombardamenti di quel giorno hanno distrutto dozzine di edifici, ucciso dozzine di persone e seppellite centinaia sotto le rovine delle loro case.

"Intere famiglie sono state uccise",
fonti dell'intelligence hanno detto a +972 e Local Call che hanno preso parte ad attacchi ancora più mortali. Per assassinare Ayman Nofal, il comandante della Brigata Centrale di Hamas, una fonte ha detto che l'esercito ha autorizzato l'uccisione di circa 300 civili, distruggendo diversi edifici durante gli attacchi aerei sul campo profughi di Al-Bureij il 17 ottobre, sulla base di un'imprecisa localizzazione. di Nofal. Le riprese satellitari e i video della scena mostrano la distruzione di diversi grandi condomini a più piani.

"Tra le 16 e le 18 case sono state spazzate via durante l'attacco", ha detto Amro Al-Khatib, un residente del campo, a +972 e Local Call. "Non riuscivamo a distinguere un appartamento dall'altro: erano tutti confusi tra le macerie e abbiamo trovato parti di corpi umani ovunque."

In seguito, Al-Khatib ha ricordato che circa 50 cadaveri furono estratti dalle macerie e circa 200 persone ferite, molte delle quali gravemente. Ma quello era solo il primo giorno. I residenti del campo hanno passato cinque giorni a tirare fuori i morti e i feriti, ha detto.

Nael Al-Bahisi, un paramedico, è stato uno dei primi ad arrivare sulla scena. Quel primo giorno contò tra le 50 e le 70 vittime. "Ad un certo momento, abbiamo capito che l'obiettivo dell'attacco era il comandante di Hamas Ayman Nofal", ha detto a +972 e Local Call. “Lo hanno ucciso, e anche molte persone che non sapevano che fosse lì. Intere famiglie con bambini sono state uccise”.

Un'altra fonte dell'intelligence ha riferito a +972 e Local Call che l'esercito ha distrutto un grattacielo a Rafah a metà dicembre, uccidendo "dozzine di civili", per cercare di uccidere Mohammed Shabaneh, il comandante della Brigata Rafah di Hamas. non è chiaro se sia stato ucciso o meno nell'attacco). Spesso, spiega la fonte, gli alti comandanti si nascondono in tunnel che passano sotto edifici civili, e quindi la scelta di assassinarli con un attacco aereo uccide necessariamente dei civili.

"La maggior parte dei feriti erano bambini", ha detto Wael Al-Sir, 55 anni, che ha assistito al attacco su larga scala ritenuto da alcuni abitanti di Gaza un tentativo di omicidio. Ha detto a +972 e Local Call che l’attentato del 20 dicembre ha distrutto “un intero blocco residenziale” e ucciso almeno 10 bambini.

"C'era una politica completamente permissiva riguardo alle vittime delle operazioni [di bombardamento] - così permissiva che secondo me aveva un elemento di vendetta", ha affermato D., una fonte dell'intelligence. “Il nocciolo di tutto ciò sono stati gli omicidi di alti comandanti [di Hamas e PIJ] per i quali erano disposti a uccidere centinaia di civili. Facevamo un calcolo: quanti per un comandante di brigata, quanti per un comandante di battaglione e così via”.

“C’erano dei regolamenti, ma erano semplicemente molto indulgenti”, ha detto E., un’altra fonte dell’intelligence. “Abbiamo ucciso persone con danni collaterali a doppia cifra, se non a tripla cifra. Sono cose che non erano mai accadute prima”.

Un tasso così elevato di “danni collaterali” è eccezionale non solo rispetto a quanto ritenuto accettabile in precedenza dall’esercito israeliano, ma anche rispetto alle guerre intraprese dagli Stati Uniti in Iraq, Siria e Afghanistan.

Il generale Peter Gersten, vice comandante per le operazioni e l'intelligence nell'operazione per combattere l'ISIS in Iraq e Siria, ha dichiarato a una rivista di difesa statunitense nel 2021 che un attacco con danni collaterali di 15 civili si è discostato dalla procedura; per realizzarlo ha dovuto ottenere un permesso speciale dal capo del Comando Centrale degli Stati Uniti, il generale Lloyd Austin, che ora è Segretario della Difesa.

"Con Osama Bin Laden, avresti un NCV [Non-combatant Casualty Value] di 30, ma se avessi un comandante di basso livello, il suo NCV sarebbe normalmente pari a zero", ha detto Gersten. "Abbiamo eseguito zero per il tempo più lungo."

'Ci è stato detto: 'Tutto quello che puoi, bombarda''.
Tutte le fonti intervistate per questa indagine hanno affermato che i massacri di Hamas del 7 ottobre e il rapimento di ostaggi hanno fortemente influenzato la politica antincendio dell'esercito e l'entità dei danni collaterali. "All'inizio l'atmosfera era dolorosa e vendicativa", ha detto B., che è stato arruolato nell'esercito subito dopo il 7 ottobre e ha prestato servizio in una sala operativa bersaglio. “Le regole erano molto indulgenti. Hanno abbattuto quattro edifici quando sapevano che l'obiettivo era in uno di essi. È stato pazzesco.

"C'era una dissonanza: da un lato la gente qui era frustrata perché non attaccavamo abbastanza", ha continuato B.. “D’altra parte, alla fine della giornata si vede che sono morti altri mille abitanti di Gaza, la maggior parte dei quali civili”.

“C'era isteria tra i professionisti”, ha detto D., anche lui arruolato subito dopo il 7 ottobre. “Non avevano assolutamente idea di come reagire. L’unica cosa che sapevano fare era iniziare a bombardare come dei pazzi per cercare di smantellare le capacità di Hamas”.

D. ha sottolineato che non è stato detto loro esplicitamente che l'obiettivo dell'esercito era la “vendetta”, ma ha affermato che “non appena ogni obiettivo collegato a Hamas diventerà legittimo, e con quasi tutti i danni collaterali approvati, vi sarà chiaro che migliaia di le persone verranno uccise. Anche se ufficialmente ogni obiettivo è collegato a Hamas, quando la politica è così permissiva perde ogni significato”.

A. ha usato la parola “vendetta” anche per descrivere l'atmosfera all'interno dell'esercito dopo il 7 ottobre. “Nessuno ha pensato a cosa fare dopo, quando la guerra sarà finita, né a come sarà possibile vivere a Gaza e cosa faranno fatelo”, ha detto A.. “Ci è stato detto: ora dobbiamo mandare all’aria Hamas, a qualunque costo. Qualunque cosa puoi, bombarda.

B., la fonte principale dell’intelligence, ha affermato che, in retrospettiva, ritiene che questa politica “sproporzionata” di uccidere i palestinesi a Gaza metta in pericolo anche gli israeliani, e che questo è stato uno dei motivi per cui ha deciso di essere intervistato.

“Nel breve termine siamo più sicuri perché feriamo Hamas. Ma penso che nel lungo termine saremo meno sicuri. Vedo come tutte le famiglie in lutto a Gaza – ovvero quasi tutte – aumenteranno la motivazione affinché [le persone si uniscano] ad Hamas tra dieci anni. E sarà molto più facile per [Hamas] reclutarli”.

In una dichiarazione rilasciata a +972 e Local Call, l’esercito israeliano ha negato gran parte di ciò che ci hanno detto le fonti, sostenendo che “ogni obiettivo viene esaminato individualmente, mentre viene effettuata una valutazione individuale del vantaggio militare e dei danni collaterali attesi dall’attacco… L’IDF non effettua attacchi quando il danno collaterale atteso dall’attacco è eccessivo rispetto al vantaggio militare”.

FASE 5: CALCOLO DEI DANNI COLLATERALI

"Il modello non era collegato alla realtà"
Secondo fonti di intelligence, il calcolo effettuato dall'esercito israeliano del numero di civili che si prevede verranno uccisi in ciascuna casa accanto a un obiettivo - una procedura esaminata in una precedente indagine da + 972 e Local Call — è stata condotta con l'ausilio di strumenti automatici e imprecisi. Nelle guerre precedenti, il personale dell’intelligence dedicava molto tempo a verificare quante persone si trovassero in una casa destinata a essere bombardata, con il numero di civili che rischiavano di essere uccisi elencati come parte di un “file di destinazione”. Dopo il 7 ottobre, tuttavia, questa verifica approfondita è stata in gran parte abbandonata a favore dell’automazione.

Nel mese di ottobre, il New York Times ha riferito di un sistema gestito da una base speciale nel sud di Israele, che raccoglie informazioni dai telefoni cellulari nella Striscia di Gaza e fornisce ai militari una stima in tempo reale del numero di palestinesi fuggiti dal nord della Striscia di Gaza verso sud. . Brigantino. Il generale Udi Ben Muha ha dichiarato al Times che "non è un sistema perfetto al 100%, ma ti dà le informazioni di cui hai bisogno per prendere una decisione". Il sistema funziona in base ai colori: il rosso segnala le aree dove ci sono molte persone, mentre il verde e il giallo segnalano le aree che sono state relativamente sgombrate dai residenti.

Palestinesi camminano su una strada principale dopo essere fuggiti dalle loro case nella città di Gaza verso la parte meridionale di Gaza, 10 novembre 2023. (Atia Mohammed/Flash90)
Le fonti che hanno parlato con +972 e Local Call hanno descritto un sistema simile per il calcolo dei danni collaterali , che è stato utilizzato per decidere se bombardare un edificio a Gaza. Hanno detto che il software calcolava il numero di civili che risiedevano in ciascuna casa prima della guerra – valutando le dimensioni dell’edificio e rivedendo l’elenco dei residenti – e poi riduceva quei numeri in base alla percentuale di residenti che presumibilmente avevano evacuato il quartiere.

Per illustrare, se l'esercito stimasse che la metà dei residenti di un quartiere se n'era andata, il programma conterebbe una casa che di solito conta 10 residenti come una casa che contiene cinque persone. Per risparmiare tempo, dicono le fonti, l'esercito non ha sorvegliato le case per verificare quante persone ci vivessero effettivamente, come aveva fatto nelle operazioni precedenti, per verificare se le stime del programma erano effettivamente accurate.

"Questo modello non era collegato alla realtà", ha affermato una fonte. “Non c’era alcun collegamento tra coloro che erano in casa adesso, durante la guerra, e coloro che erano elencati come residenti lì prima della guerra. [In un’occasione] abbiamo bombardato una casa senza sapere che all’interno c’erano diverse famiglie, nascoste insieme”.

Secondo la fonte, anche se l'esercito sapeva che tali errori potevano verificarsi, è stato comunque adottato questo modello impreciso perché più veloce. Pertanto, ha affermato la fonte, “il calcolo dei danni collaterali è stato completamente automatico e statistico”, producendo anche cifre che non erano numeri interi.

PASSO 6: BOMBARDARE UNA CASA DI FAMIGLIA

"Avete ucciso una famiglia senza motivo"
Le fonti che hanno parlato con +972 e Local Call hanno spiegato che a volte c'era un divario sostanziale tra il momento in cui sistemi di tracciamento come Dov'è papà? hanno allertato un ufficiale che un obiettivo era entrato nella loro casa e l'attentato stesso ha portato all'uccisione di intere famiglie anche senza colpire l'obiettivo dell'esercito. "Mi è capitato molte volte di attaccare una casa, ma la persona non era nemmeno in casa", ha detto una fonte. “Il risultato è che hai ucciso una famiglia senza motivo.

Tre fonti dell'intelligence hanno riferito a +972 e Local Call di aver assistito a un incidente in cui l'esercito israeliano ha bombardato la casa privata di una famiglia, e in seguito si è scoperto che l'obiettivo presunto dell'assassinio non era nemmeno all'interno della casa, poiché non erano state effettuate ulteriori verifiche. condotta in tempo reale.

"A volte [l'obiettivo] era a casa prima, e poi di notte andava a dormire da qualche altra parte, diciamo sottoterra, e tu non lo sapevi", ha detto una delle fonti. "Ci sono momenti in cui ricontrolli la posizione, e ci sono momenti in cui dici semplicemente: 'Okay, era in casa nelle ultime ore, quindi puoi semplicemente bombardare.'"

Un'altra fonte ha descritto un incidente simile che lo ha colpito e gli ha fatto desiderare di essere intervistato per questa indagine. “Abbiamo capito che l'obiettivo era casa alle 20. Alla fine l'aereo ha bombardato la casa alle 3. Poi abbiamo scoperto che [in quell'arco di tempo] era riuscito a trasferirsi con la famiglia in un'altra casa. C’erano altre due famiglie con bambini nell’edificio che abbiamo bombardato”.

Nelle precedenti guerre a Gaza, dopo l’assassinio di obiettivi umani, l’intelligence israeliana eseguiva procedure di valutazione dei danni da bomba (BDA), un controllo di routine post-attacco per vedere se il comandante anziano era stato ucciso e quanti civili erano stati uccisi insieme a lui. Come rivelato in una precedente indagine di +972 e Local Call, ciò comportava l'ascolto di telefonate di parenti che avevano perso i loro cari. Nella guerra attuale, tuttavia, almeno per quanto riguarda i giovani militanti marchiati con l'intelligenza artificiale, le fonti affermano che questa procedura è stata abolita per risparmiare tempo. Le fonti hanno detto di non sapere quanti civili siano stati effettivamente uccisi in ogni attacco, e per i sospetti agenti di basso rango di Hamas e PIJ contrassegnati dall'AI, non sapevano nemmeno se l'obiettivo stesso fosse stato ucciso.
Anche senza il veto delle Nazioni Unite, Gaza rimane ostaggio del potere americano

Perché gli israeliani si sentono così minacciati da un cessate il fuoco?
"Non sai esattamente quanti ne hai uccisi e chi hai ucciso", ha detto una fonte dell'intelligence a Local Call per una precedente indagine pubblicata a gennaio. “Solo quando si tratta di agenti senior di Hamas si segue la procedura BDA. Nel resto dei casi, non ti interessa. Ricevi un rapporto dall'aeronautica militare che informa se l'edificio è stato fatto saltare in aria, e basta. Non hai idea di quanti danni collaterali ci siano stati; passi immediatamente al bersaglio successivo. L’enfasi era quella di creare quanti più obiettivi possibili, il più rapidamente possibile”.

Ma mentre l’esercito israeliano può passare dopo ogni attacco senza soffermarsi sul numero delle vittime, Amjad Al-Sheikh, il residente di Shuja’iya che ha perso 11 membri della sua famiglia nel bombardamento del 2 dicembre, ha detto che lui e i suoi vicini sono ancora alla ricerca di cadaveri.

“Finora ci sono corpi sotto le macerie”, ha detto. “Quattordici edifici residenziali sono stati bombardati con i loro residenti all’interno. Alcuni dei miei parenti e vicini sono ancora sepolti”.

Da 972mag.com

Nessun commento:

► Potrebbe interessare anche: