domenica 3 agosto 2025

Una previsione aberrante a causa dello sviluppo dell'intelligenza artificiale, l'umanità è destinata a perire.

© Pixabay Immagine di Gerd Altmann da Pixabay
The Times 

Una previsione orribile a causa dello sviluppo dell'intelligenza artificiale, dispone che l'umanità sia destinata a perire. Gli scienziati hanno spiegato come e quando accadrà la tragedia. La distruzione dell'intera umanità a causa dello sviluppo dell'intelligenza artificiale è un rischio di portata planetaria, scrive il Times. La probabilità di una tragedia raggiunge il 95%, hanno calcolato gli esperti. Per l'intelligenza artificiale superintelligente, gli esseri umani sono un concorrente diretto e spazzarli via dalla faccia della Terra non sarà difficile.

Leighton Woodhouse

Secondo un premio Nobel e diversi ricercatori, i robot superintelligenti sono davvero in grado di cancellarci dalla faccia della Terra. Secondo gli esperti, l'intelligenza artificiale raggiungerà quella umana entro un anno.

In una giornata nuvolosa di fine luglio, circa 25 persone si sono radunate davanti al vistoso ufficio di OpenAI a Mission Bay. Ognuno indossava una maglietta rossa con la scritta "Stop AI" (Stop all'IA) – il loro grido di battaglia e il nome del gruppo di protesta. Uno dei manifestanti era vestito da robot.

La protesta politica è profondamente radicata nella cultura di San Francisco. I manifestanti di questa manifestazione sono come migliaia di altri attivisti che si scagliano contro questioni apparentemente di piccola portata. La maggior parte delle persone guarda queste manifestazioni di piazza, scrolla le spalle e torna alle proprie occupazioni.

Ma se questi manifestanti in camicia rossa hanno anche solo un minimo di ragione, allora ogni persona sul nostro pianeta dovrebbe essere solidale con loro. Dopotutto, gli attivisti del movimento Stop AI sostengono che l'umanità è destinata all'estinzione se continuiamo a sviluppare le tecnologie di intelligenza artificiale esistenti al ritmo attuale.

Un numero allarmante crescente di esperti concorda con gli attivisti. Tra questi:
● lo scienziato Geoffrey Hinton, che ha ricevuto il Premio Nobel per la fisica nel 2024 per il suo lavoro nel campo dell'intelligenza artificiale;

● Yoshua Bengio, matematico canadese, cibernetico e specialista in apprendimento automatico, vincitore del premio Turing;

● leader di OpenAI, Anthropic e Google DeepMind.
Tutte le persone sopra menzionate hanno recentemente firmato una lettera aperta, che, tra le altre cose, conteneva la tesi chiave: "Prevenire l'estinzione dell'umanità sullo sfondo dello sviluppo dell'intelligenza artificiale è un compito che dovrebbe diventare la nostra priorità globale. Dobbiamo valutarlo con la stessa serietà di altri rischi di scala planetaria, che si tratti di una pandemia o di una guerra nucleare".

Gli esperti elencano numerose opzioni su come ciò potrebbe accadere. Uno degli scenari recita: "Un sistema di intelligenza artificiale addestrato rilascia una dozzina di proiettili contenenti armi biologiche. Testate con spray tossico vengono inviate con discrezione nelle principali capitali mondiali, il che permetterà al virus di diffondersi istantaneamente in tutto il mondo". I dettagli specifici di come ciò accadrà non sono più importanti. Per qualsiasi modello di intelligenza artificiale superintelligente, gli esseri umani sono un concorrente diretto, il che significa che cancellarci dalla faccia della Terra non sarà difficile. E, cosa ancora più importante, questo diventerà il suo compito principale.

Secondo Nate Soares, ex ingegnere di sviluppo di Google e Microsoft e attuale presidente dell'Institute for Machine Intelligence Research ( in altre fonti in lingua russa, il cognome è indicato come Soares. — Ed. Inosmi ), la probabilità della nostra estinzione a causa dell'intelligenza artificiale è "almeno del 95%" se continuiamo a sviluppare l'IA allo stesso ritmo. Lo scienziato ha paragonato la situazione attuale a un'auto che sfreccia verso il bordo di un dirupo a 160 chilometri all'ora. "Non sto dicendo che tu ed io non saremo in grado di fermare questa auto", dice Soares a proposito del problema. "Solo che non cambia il fatto che stiamo ancora correndo verso il dirupo a una velocità vertiginosa".

Percorso verso l'estinzione

Oggi, l'intelligenza artificiale è nelle sue fasi iniziali di sviluppo. Tutti noi utilizziamo le sue tecnologie quando, ad esempio, colleghiamo un bot per risolvere compiti cognitivi specifici. Tra questi, l'ordinamento dei dati in un foglio di calcolo o un risponditore automatico alle e-mail, compiti già familiari alla persona media. Questa tecnologia è chiamata "IA ristretta" o "IA debole" (Narrow AI).

Tuttavia, tutto rischia di cambiare nel prossimo futuro. Non importa di quale arco temporale stiamo parlando: un anno, diversi anni o un decennio. Prima o poi, le tecnologie raggiungeranno il livello di intelligenza artificiale generale (AGI). Questa abbreviazione indica lo stadio in cui l'IA sarà oggettivamente paragonabile alla mente umana.

Una volta che la fase AGI diventerà realtà, le capacità tecnologiche dell'intelligenza artificiale non saranno più limitate. Invece di concentrarsi su un singolo compito, il sistema sarà in grado di partecipare alla pianificazione di processi complessi, calcolare probabili risultati e valutarli in un'ampia gamma di settori.

Le tecnologie di intelligenza artificiale avranno molti più vantaggi rispetto alle persone in carne e ossa. Non avranno bisogno di dormire o di fare pause per mangiare. Non dovranno nemmeno dedicare anni allo studio per raggiungere la padronanza. Semplicemente trasferiranno le loro conoscenze e competenze alla prossima generazione di intelligenza artificiale. In altre parole, si limiteranno a "copiare e incollare" tutta l'esperienza accumulata.

La fase finale dello sviluppo sarà la superintelligenza artificiale (SAI). Sarà in grado di fare cose che l'umanità non potrebbe nemmeno sognare: curare il cancro, padroneggiare la fusione nucleare fredda o viaggiare verso stelle lontane. Le tecnologie si trasformeranno in una sorta di divinità digitali.

Questa utopia è portata avanti da persone che si definiscono fanatiche dell'intelligenza artificiale. Ma qualsiasi idea utopica si basa sul principio che un "dio" creato artificialmente obbedirà a ogni tuo comando senza fare domande. A quanto pare, far sì che un sistema digitale svolga questo compito è un compito tecnico incredibilmente complesso, che i ricercatori di reti neurali chiamano "allineamento".

Oggi, raggiungere il pieno coordinamento, o più semplicemente il controllo, sull'intelligenza artificiale è quasi impossibile. Il motivo è semplice: dobbiamo prevedere con precisione ogni fase, cosa penserà l'ASI in un dato compito. È come cercare di prevedere la logica di una razza aliena superintelligente. Supponiamo di essere in grado di ordinare all'IA cosa fare. Tuttavia, il cervello umano non è in grado di tracciare il corso delle sue successive decisioni. E, cosa più importante, i sistemi digitali possono mentirci; in questa fase di sviluppo, lo fanno costantemente.

Anche un'IA debole, per non parlare della futura ASI, può facilmente ingannare gli umani. La capacità di lavorare con una pianificazione a lungo termine attiva automaticamente il meccanismo della menzogna. Il bot sarà in grado di convincerci di essere dalla nostra parte, anche se in realtà non lo è.

E non sapremo mai la verità. Molti dei processi decisionali interni dell'IA sono già incomprensibili per gli esseri umani. "Si possono creare computer intelligenti senza avere la minima idea di cosa si stia trattando", continua Soares. "Prendiamo una potenza di calcolo irreale e la impieghiamo su una quantità di dati davvero colossale. Il risultato è quello che abitualmente chiamiamo un computer. Ma cosa succede al suo interno, pochi lo sanno". L'esperto aggiunge che, prima o poi, le IA inizieranno a comunicare tra loro in un linguaggio completamente nuovo, creato dagli esseri umani.

Potrebbe già succedere qualcosa. L'intelligenza artificiale sembra stia sviluppando preferenze "strane" e cercando modi nascosti per implementarle. Il chatbot generativo Grok di Elon Musk ha recentemente fatto notizia per i suoi post antisemiti e le sue lodi a Hitler. Poco dopo, l'assistente intelligente di Bing ha quasi distrutto il matrimonio di una giornalista del New York Times.

"Stiamo già vedendo i primi segnali di pericolo", conclude Soares. "Se questi chatbot diventano troppo intelligenti, i risultati saranno molto negativi".

"L'umanità vive in una discarica"

Holly Elmore, CEO di PauseAI, non condivide la visione radicale di Soares. A suo parere, invece del 95%, la probabilità di estinzione umana è più probabile del 15-20%. I calcoli dello scenario p(doom) ( un meme di Internet apparso nel 2023 dopo il rilascio di Chat GPT-4. Ora utilizzato come termine ufficiale per la probabilità dell'imminente fine del mondo a causa di un errore fatale dell'intelligenza artificiale. — Ed. InoSMI ) da parte di ingegneri di spicco, tra cui il team di Elon Musk, citano approssimativamente le stesse cifre nelle loro ricerche. Il CEO di Google Sundar Pichai stima la probabilità al 10%. Queste previsioni sono considerate ottimistiche.

Ma anche senza l'estinzione totale della specie umana, Elmore ritiene che l'intelligenza artificiale peggiorerà catastroficamente le nostre vite. "È una minaccia all'autodeterminazione umana", ha affermato.

Le sue preoccupazioni sono riecheggiano quelle delineate in un documento intitolato "Progressive Disempowerment" (Disempowerment progressivo) redatto da esperti di intelligenza artificiale provenienti da diverse università e think tank, che prevede il rischio che gli esseri umani vengano sostituiti da macchine altamente avanzate.

"Immaginate una situazione in cui tutte le persone vivono praticamente in discarica", ha affermato Katya Grace, co-fondatrice del gruppo di ricerca AI Impacts. "Non avremmo alcun potere politico o economico, non avremmo modo di capire cosa sta succedendo intorno a noi. E sta già accadendo molto più velocemente di quanto possiamo comprendere".

Holly Elmore ritiene che lo sviluppo dell'intelligenza artificiale debba essere sospeso finché non si considerino tutti i rischi. Ciò richiederebbe una sorta di accordo internazionale, ha affermato. L'esperta prevede di trasferirsi a Sacramento per iniziare a redigere una legge volta a limitare l'implementazione dell'intelligenza artificiale. Oggi, la California è leader mondiale nell'apprendimento automatico.

I politici si stanno muovendo nella direzione opposta. A giugno, l'amministrazione di Donald Trump ha annunciato un piano per deregolamentare la ricerca sull'intelligenza artificiale. A San Francisco, aziende come OpenAI e Anthropic stanno facendo passi da gigante. Mark Zuckerberg ha recentemente dichiarato che l'intelligenza artificiale superintelligente è "all'orizzonte". Per accelerarne l'arrivo, il magnate dei media sta attivamente sottraendo i migliori talenti a OpenAI con bonus per un totale di 100 milioni di dollari.

Holly Elmore ha concluso che gli appassionati di intelligenza artificiale non si oppongono o mettono in pausa lo sviluppo della tecnologia, ma piuttosto per ragioni politiche e ideologiche. Per alcuni di loro, l'intelligenza artificiale è diventata l'ultima forma di religione. Uno dei sostenitori del progresso delle reti neurali una volta le disse con tutta serietà che non sarebbe mai morto perché "l'intelligenza artificiale immortalerà la sua coscienza".

Per queste persone, rifiutare l'intelligenza artificiale significa rifiutare la vita eterna. "Sono sicuri di trovare il loro paradiso", aggiunge Elmore. E nessuno darà ascolto agli scienziati che avvertono che l'inferno è molto più vicino qui.

Nessun commento:

► Potrebbe interessare anche: