venerdì 27 giugno 2025

L'intelligenza artificiale ha quasi scatenato la Terza Guerra Mondiale

DI JEFFREY A. TUCKER 

Ricordiamo che il fiasco del Covid è andato in tilt quando Neil Ferguson dell'Imperial College di Londra ha generato una stima completamente errata del tasso di mortalità del virus proveniente dalla Cina. Aveva due previsioni, una senza lockdown (morti ovunque) e una con lockdown (non terribili). L'idea era quella di ispirare la replica dei metodi estremi di controllo delle popolazioni del PCC in Occidente.


Quel modello, inizialmente condiviso in ambiti riservati, ha ribaltato la narrazione. Una volta che alcuni consiglieri selezionati – tra cui Deborah Birx e Anthony Fauci – lo hanno presentato a Trump, quest'ultimo è passato dall'opporsi ai lockdown all'affrontare l'apparentemente inevitabile.

In poco tempo, ogni ONG finanziata da Gates iniziò a promuovere altri modelli simili, che ne dimostravano la validità. Un'infinità di persone li osservava come se fossero un riflesso fedele della realtà. I ​​principali media ne parlavano quotidianamente.

Con il protrarsi del fiasco, si è sviluppata anche la falsificazione dei dati. I test PCR generavano falsi positivi, dando l'impressione di una calamità in atto, nonostante le infezioni clinicamente significative fossero estremamente limitate. Infezioni e persino esposizioni sono state ridefinite come casi, per la prima volta nella storia epidemiologica. Poi sono arrivati ​​i "decessi per Covid" sovvenzionati, che hanno chiaramente generato ondate di errori di classificazione che sottolineano la sovrastima del tasso di mortalità.

È fantastico e terrificante, una volta sommati tutti i dati. Modelli e dati errati hanno creato una pandemia letale di gravità incerta, che in seguito è stata presumibilmente risolta da vaccini testati con dati errati e la cui efficacia è stata ulteriormente dimostrata da modelli e dati pessimi.

C'è sicuramente una lezione da imparare. Eppure la storia d'amore con modelli e dati sbagliati non è ancora del tutto finita.

Ci sono prove che uno scenario molto simile si sia verificato in relazione all'affermazione secondo cui l'Iran stava costruendo un'arma nucleare, provocando un inferno di bombe e morte sia in Iran che in Israele.

Le stesse affermazioni ambigue, velate da un linguaggio mutevole che offuscava distinzioni cruciali tra intenzioni e realtà, sono state generate da un modello di intelligenza artificiale. Sviluppato dalla società Palantir per l'Agenzia Internazionale per l'Energia Atomica, è stato responsabile di aver spinto gli Stati Uniti a entrare in guerra con una spettacolare dimostrazione di potenza di fuoco militare sotto forma di bombardieri B2 e altri missili.

Questa strana mini-guerra si è conclusa quasi con la stessa rapidità con cui era iniziata, quando Donald Trump ha improvvisamente cambiato idea, ha smesso di invocare un cambio di regime e in seguito si è rivolto ai media e ai suoi social media per attaccare sia l'Iran che Israele con un linguaggio pieno di parolacce. Era chiaramente furioso, sostenendo che nessuno dei due governi sapeva cosa stava facendo.

Si è trattato di un momento di ritorno all'estate del 2020, successiva al periodo di lockdown, quando Trump fece marcia indietro e iniziò a invocare una riapertura che poi non fu in grado di attuare.

Sembra esserci una storia più profonda, legata a dati e modelli errati che hanno quasi incendiato il mondo. Diamo un'occhiata alla traiettoria di questa mini-guerra.

Il fiasco iniziò il 12 giugno 2025, quando l'AIEA riportò alcune indiscrezioni nel suo consueto rapporto sull'Iran, sufficienti per dichiarare in un resoconto ufficiale che l'Iran era "inadempiente". Questa opinione contraddiceva quanto affermato da tutti gli altri membri della comunità dell'intelligence, inclusa la direttrice dell'intelligence nazionale di Trump, Tulsi Gabbard. Diversi mesi prima, Gabbard aveva testimoniato che l'Iran non stava prendendo alcuna iniziativa per costruire armi nucleari, ma non poteva escludere che potesse farlo in futuro.

Diversi mesi prima, il 12 aprile 2025, Trump aveva inviato l'inviato speciale Steve Witkoff in un'operazione diplomatica in Iran, che comprendeva anche incontri ad alto livello con il ministro degli Esteri iraniano Abbas Araghchi.

Il rapporto dell'AIEA, tuttavia, cambiò la dinamica in modo molto repentino. Il Primo Ministro israeliano Benjamin Netanyahu, basandosi sul rapporto dell'AIEA, diede inizio a una campagna di bombardamenti e omicidi basata sull'affermazione che l'Iran stesse effettivamente realizzando un'arma nucleare. L'Iran registrò 220 morti, tra cui molti scienziati. Il giorno successivo, bombe di rappresaglia caddero su Tel Aviv, ben 100 missili, di cui 10 causarono danni materiali, panico e oltre 40 feriti tra gli israeliani.

La guerra tra le due nazioni è andata avanti per giorni, mentre innocenti in entrambi i Paesi morivano e i social media documentavano cieli in fiamme con razzi che piovevano sugli obiettivi.

Il 17 giugno, il Direttore Generale dell'AIEA, Rafael Grossi, ha chiarito alla CNN che non c'erano prove che l'Iran fosse vicino a possedere una bomba. "Non avevamo alcuna prova di uno sforzo sistematico [da parte dell'Iran] per passare a un'arma nucleare", ha confermato Grossi alla CNN.

Che diavolo è successo allora? Che senso aveva tutta questa morte e distruzione?

Come riportato da DD Geo-politics , "dal 2015, l'AIEA si è affidata alla piattaforma Mosaic di Palantir, un sistema di intelligenza artificiale da 50 milioni di dollari che analizza milioni di punti dati (immagini satellitari, social media, registri del personale) per prevedere le minacce nucleari".

In questo caso particolare, riferisce Alastair Crooke,

Il suo algoritmo cerca di identificare e dedurre "intenzioni ostili" da indicatori indiretti – metadati, modelli comportamentali, traffico di segnali – non da prove confermate. In altre parole, postula ciò che i sospettati potrebbero pensare o pianificare. Il 12 giugno, l'Iran ha fatto trapelare documenti che, a suo dire, mostravano il capo dell'AIEA Rafael Grossi condividere i dati di Mosaic con Israele. Entro il 2018, Mosaic aveva elaborato oltre 400 milioni di oggetti dati discreti e aveva contribuito ad attribuire sospetti a oltre 60 siti iraniani, tanto da giustificare ispezioni a sorpresa dell'AIEA su tali siti, nell'ambito del JCPOA. Questi dati, sebbene dipendenti in gran parte dalle equazioni algoritmiche, sono stati incorporati nei rapporti formali di salvaguardia dell'AIEA e sono stati ampiamente accettati dagli Stati membri delle Nazioni Unite e dai regimi di non proliferazione come valutazioni credibili e basate sull'evidenza. Mosaic, tuttavia, non è un sistema passivo. È addestrato a dedurre dal suo algoritmo intenzioni ostili, ma quando viene riutilizzato per la supervisione nucleare, le sue equazioni rischiano di trasformare una semplice correlazione in un intento malevolo.

Come è arrivato a Trump il falso positivo riguardante le presunte armi nucleari dell'Iran? Politico riporta che "il generale Erik Kurilla, capo del Comando Centrale degli Stati Uniti [con una lunga storia di attività di nation-building che spaziano da Panama ad Haiti all'Iraq], ha avuto un ruolo sproporzionato nell'escalation degli scontri tra Teheran e Israele, con funzionari che hanno notato che quasi tutte le sue richieste sono state approvate, da più portaerei a caccia nella regione".

A quanto pare, fu proprio questo rapporto sull'intelligenza artificiale dell'AIEA, poi smentito, a essere la forza trainante che convinse lo stesso Trump ad andare avanti con l'impegno militare, arrivando persino a rinnegare le opinioni del suo stesso Direttore dell'Intelligence Nazionale. Trump stesso affermò di "non preoccuparsi di ciò che lei [Gabbard] pensa".

Gli attacchi statunitensi seguirono pochi giorni dopo, con il lancio di attacchi con bombe bunker-buster contro tre siti nucleari iraniani (Fordow, Isfahan e Natanz), segnando il primo attacco statunitense in assoluto al programma nucleare di un altro Paese. Il problema: tutto si basava su modelli e dati approssimativi, stranamente simili all'esperienza del Covid.

Il problema politico per il MAGA era insopportabilmente evidente. Trump aveva affermato da tempo che l'Iran non poteva avere armi nucleari, ma si era distinto da falchi come Nikki Haley proprio perché lei voleva bombardare l'Iran, mentre Trump avrebbe raggiunto un accordo e lo avrebbe fatto rispettare. È stato il rapporto sul software di Palantir a farlo passare dall'opposizione al sostegno agli attacchi e all'intervento.

Come prevedibile, la maggior parte degli influencer del MAGA – Steve Bannon, Alex Jones, Tucker Carlson, Matt Gaetz, Matt Walsh e molti altri – hanno preso l'insolita decisione di criticare duramente l'amministrazione Trump per il suo grilletto facile e l'allarme lanciato sull'inizio della Terza Guerra Mondiale. Nessuno di loro, per quanto ne so, avrebbe potuto immaginare che la scienza fasulla generata da un'azienda di dati vicina a Trump fosse la fonte di quel rapporto fuorviante.

Cosa è successo per far cambiare idea a Trump? Qui entriamo nel vivo delle speculazioni. Sembra probabile che la squadra di Tulsi e le agenzie di intelligence di Trump abbiano iniziato a smantellare gli eventi e a isolare la fonte del problema in modelli errati, dati errati e cattiva scienza. Sono stati questi fattori a scatenare le bestie dell'ambizione politica e della corruzione, come nel caso del Covid.

Questo iniziò a far cambiare idea a Trump, ma fu la risposta dell'Iran, il bombardamento del Qatar, a renderlo eccessivo. Sembra che l'Iran abbia avvertito gli Stati Uniti affinché non ci fossero perdite di vite umane. Questo atto di razionalità umanitaria colpì Trump e lo indusse a riconsiderare l'idea fondamentale che l'Iran ambisse a possedere armi di distruzione di massa.

Ci sono echi dell'invasione dell'Iraq, ma anche dell'esperienza del Covid. Modelli errati, dati errati e scienza inadeguata avevano ancora una volta cospirato contro la libertà e la pace, gli stessi ideali che Trump si era prefissato di proteggere. Così, ha cambiato idea e ha rapidamente cambiato idea: niente più bombardamenti, niente più esperti, niente più attacchi alla vita.

Oppure possiamo vedere tutto questo fiasco omicida come una versione reale del film "Il Dottor Stranamore", in cui errore, burocrazia e fanatismo si combinano per creare risultati che nessuno in particolare aveva previsto, ma che nessuno può fermare una volta iniziati. Fortunatamente, in questo caso, hanno prevalso le menti più fredde. Non fidatevi dei modelli, non fidatevi degli esperti, non fidatevi dei dati falsi e non fidatevi dell'intelligenza artificiale!

Possiamo solo sperare che la lezione resti impressa.

Nessun commento:

► Potrebbe interessare anche: