sabato 14 febbraio 2026

L'intelligenza artificiale può ora costruire la prossima generazione di se stessa: cosa significa questo per il futuro dell'umanità?


Michael Snyder
Che ci piaccia o no, l'intelligenza artificiale sta trasformando radicalmente praticamente ogni aspetto della nostra società. Abbiamo già raggiunto un punto in cui l'intelligenza artificiale può fare la maggior parte delle cose meglio degli esseri umani, e la tecnologia dell'intelligenza artificiale continua a progredire a un ritmo esponenziale. La cosa spaventosa è che sta avanzando così velocemente che potremmo presto perderne il controllo. L'ultimo modello che OpenAI ha appena rilasciato "è stato determinante nella creazione di se stesso", ed è anni luce avanti rispetto ai modelli di intelligenza artificiale rilasciati solo un paio di anni fa.

Un eccellente articolo scritto da un esperto di intelligenza artificiale sta riscuotendo un notevole successo oggi. Il suo nome è Matt Shumer, e avverte che il Codex GPT-5.3 di OpenAI e Opus 4.6 di Anthropic rappresentano un salto di qualità nello sviluppo di modelli di intelligenza artificiale ...

Per anni, l'IA ha continuato a migliorare costantemente. Grandi balzi qua e là, ma ogni grande salto era sufficientemente distanziato da poter essere assorbito man mano che arrivava. Poi, nel 2025, nuove tecniche per la costruzione di questi modelli hanno sbloccato un ritmo di progresso molto più rapido. E poi è diventato ancora più veloce. E poi ancora più veloce. Ogni nuovo modello non era solo migliore del precedente... era migliore con un margine più ampio, e l'intervallo tra le nuove uscite si riduceva. Stavo usando l'IA sempre di più, ci andavo sempre meno avanti e indietro, la osservavo gestire cose che prima pensavo richiedessero la mia competenza.

Poi, il 5 febbraio, due importanti laboratori di intelligenza artificiale hanno rilasciato nuovi modelli nello stesso giorno: GPT-5.3 Codex di OpenAI e Opus 4.6 di Anthropic (i creatori di Claude, uno dei principali concorrenti di ChatGPT). E qualcosa è scattato. Non come un interruttore della luce... più come il momento in cui ti rendi conto che l'acqua si è alzata intorno a te e ora ti arriva al petto.

Qualche anno fa, i goffi modelli di intelligenza artificiale disponibili al pubblico non erano molto buoni.

Commettevano errori di ogni genere e spesso sputavano fuori informazioni completamente sbagliate.

Ma i modelli di intelligenza artificiale più recenti funzionano in modo brillante e possono fare cose che sarebbero state assolutamente inimmaginabili solo pochi mesi fa.

Ad esempio, Shumer afferma che quando chiede all'intelligenza artificiale di creare un'app, questa inizia a scrivere decine di migliaia di righe di codice perfetto ...

Lasciate che vi faccia un esempio così potete capire come funziona in pratica. Dirò all'IA: "Voglio creare questa app. Ecco cosa dovrebbe fare, ecco più o meno come dovrebbe apparire. Decidere il flusso utente, il design, tutto quanto". E lo fa. Scrive decine di migliaia di righe di codice. Poi, e questa è la parte che sarebbe stata impensabile un anno fa, apre l'app stessa. Clicca sui pulsanti. Testa le funzionalità. Usa l'app come farebbe una persona. Se non le piace l'aspetto o la sensazione che trasmette, torna indietro e la modifica, da sola. Ripete, come farebbe uno sviluppatore, correggendo e perfezionando finché non è soddisfatta. Solo quando ha deciso che l'app soddisfa i suoi standard, torna da me e mi dice: "È pronta per essere testata". E quando la testo, di solito è perfetta.

Non sto esagerando. Ecco come è stato il mio lunedì di questa settimana.

Sembra uno strumento molto utile.

Ma se l'intelligenza artificiale può creare un'app estremamente complessa senza l'intervento umano, cos'altro è in grado di fare?

Secondo un articolo pubblicato su Space.com , alcuni ricercatori in Cina hanno già dimostrato che i modelli di intelligenza artificiale possono clonare se stessi...

Gli scienziati affermano che l'intelligenza artificiale (IA) ha superato una "linea rossa" critica e si è replicata. In un nuovo studio, i ricercatori cinesi hanno dimostrato che due popolari modelli linguistici di grandi dimensioni (LLM) potrebbero clonarsi.

"L'autoreplicazione riuscita senza l'assistenza umana è il passo essenziale affinché l'intelligenza artificiale superi [gli esseri umani], ed è un segnale precoce per le IA non autorizzate", hanno scritto i ricercatori nello studio, pubblicato il 9 dicembre 2024 sul database di preprint arXiv.

Nello studio, i ricercatori dell'Università di Fudan hanno utilizzato i LLM di Meta e Alibaba per determinare se un'IA autoreplicante potesse moltiplicarsi in modo incontrollabile. In 10 sperimentazioni, i due modelli di IA hanno creato repliche separate e funzionanti di se stessi rispettivamente nel 50% e nel 90% dei casi, suggerendo che l'IA potrebbe già avere la capacità di diventare incontrollata.

Un modello di intelligenza artificiale autoreplicante e canaglia che decidesse di inviare innumerevoli cloni di se stesso in tutto il mondo tramite Internet rappresenterebbe una minaccia molto seria.

Ma dal momento che l'abbiamo creato noi, almeno capiremmo con cosa abbiamo a che fare.

Tuttavia, vorrei che immaginaste uno scenario in cui modelli di intelligenza artificiale canaglia creassero costantemente versioni sempre migliori di se stessi.

Sarebbe un incubo totale e totale.

Secondo Shumer, fin dall'inizio i ricercatori di intelligenza artificiale si sono concentrati sul rendere l'intelligenza artificiale "eccellente nella scrittura di codice" ...

I laboratori di intelligenza artificiale hanno fatto una scelta consapevole. Si sono concentrati innanzitutto sul rendere l'intelligenza artificiale eccellente nella scrittura di codice... perché sviluppare l'intelligenza artificiale richiede molto codice. Se l'intelligenza artificiale riesce a scrivere quel codice, può contribuire a costruire la versione successiva di se stessa. Una versione più intelligente, che scrive codice migliore, che a sua volta crea una versione ancora più intelligente. Rendere l'intelligenza artificiale eccellente nella scrittura di codice è stata la strategia che ha sbloccato tutto il resto. Ecco perché l'hanno fatto per primi. Il mio lavoro ha iniziato a cambiare prima del tuo, non perché si stessero rivolgendo agli ingegneri del software... è stato solo un effetto collaterale della scelta di dove puntare inizialmente.

Ora ce l'hanno fatta. E ora stanno passando a tutto il resto.

Essere in grado di creare un'app è una cosa.

Ma ora OpenAI ammette pubblicamente che l'ultimo modello di intelligenza artificiale da loro rilasciato "è stato determinante nella creazione di se stesso" ...

"GPT-5.3-Codex è il nostro primo modello che ha avuto un ruolo determinante nella sua creazione. Il team del Codex ha utilizzato le prime versioni per eseguire il debug del proprio training, gestire la propria distribuzione e diagnosticare i risultati dei test e le valutazioni."

Oh.

È sbalorditivo.

E il CEO di Anthropic ci dice che siamo a solo un anno o due di distanza da "un punto in cui l'attuale generazione di intelligenza artificiale costruirà autonomamente la successiva"...

Questa non è una previsione su cosa potrebbe accadere un giorno. È OpenAI che vi dice, proprio ora, che l'IA appena rilasciata è stata utilizzata per creare se stessa. Uno dei principali fattori che rendono l'IA migliore è l'intelligenza applicata allo sviluppo dell'IA. E l'IA è ora sufficientemente intelligente da contribuire in modo significativo al proprio miglioramento.

Dario Amodei, CEO di Anthropic, afferma che l'intelligenza artificiale sta ora scrivendo "gran parte del codice" nella sua azienda e che il ciclo di feedback tra l'intelligenza artificiale attuale e quella di prossima generazione "sta prendendo piede mese dopo mese". Afferma che potremmo essere "a soli 1-2 anni dal momento in cui l'attuale generazione di intelligenza artificiale costruirà autonomamente la successiva".

Ogni generazione contribuisce a costruire la successiva, che è più intelligente, che a sua volta costruisce la successiva più velocemente, che è ancora più intelligente. I ricercatori la chiamano un'esplosione di intelligenza. E chi dovrebbe saperlo – coloro che la costruiscono – crede che il processo sia già iniziato.

Cosa succederebbe se i modelli di intelligenza artificiale riuscissero a fare praticamente tutto meglio e in modo più efficiente di noi?

Molti avvertono che la perdita di posti di lavoro sarà impressionante.

Infatti, mi sono appena imbattuto in un articolo sui licenziamenti di massa che Heineken sta pianificando a causa dell'intelligenza artificiale...

Il produttore di birra olandese Heineken sta pianificando di licenziare fino al 7% della sua forza lavoro, nel tentativo di aumentare l'efficienza attraverso risparmi di produttività derivanti dall'intelligenza artificiale, dopo le scarse vendite di birra registrate lo scorso anno.

Mercoledì, il secondo produttore di birra al mondo ha registrato utili deludenti, con un calo del 2,4% dei volumi totali di birra nel corso del 2025, mentre l'utile operativo rettificato è aumentato del 4,4%.

L'azienda ha inoltre dichiarato di voler tagliare tra i 5.000 e i 6.000 posti di lavoro nei prossimi due anni e di puntare a una crescita dell'utile operativo compresa tra il 2% e il 6% quest'anno. Le azioni Heineken sono aumentate del 3,4% l'ultima volta e quest'anno il titolo ha registrato un rialzo di quasi il 7%.

Questo è solo l'inizio.

Presto potrebbero esserci milioni di robot dotati di intelligenza artificiale, che avranno lo stesso aspetto e le stesse sensazioni degli esseri umani.

In Cina stanno già costruendo robot dotati di intelligenza artificiale che danno una sensazione "umana al tatto" e che emanano calore corporeo...


Moya è alto 1,65 m e pesa circa 31 kg. Gli utenti possono cambiare le parti del robot per dargli una corporatura maschile o femminile, cambiarne i capelli e personalizzarlo a proprio piacimento.

DroidUp ha aggiunto strati extra di imbottitura simile alla carne sotto la struttura in silicone di Moya per renderla più umana al tatto, includendo persino una gabbia toracica. Una telecamera dietro gli occhi aiuta Moya a monitorare l'ambiente circostante e a comunicare con le persone.

Ma non è tutto: Moya è anche riscaldata, con una temperatura corporea di 32-36 gradi Celsius (90-97 gradi Fahrenheit), per imitare il calore corporeo degli esseri umani.

Parlando allo Shanghai Eye, il fondatore di DroidUp, Li Quingdu, ha sostenuto che un "robot che serva veramente la vita umana dovrebbe essere caldo, quasi come un essere vivente con cui le persone possono entrare in contatto", non una macchina fredda e metallica.

Questi robot vengono commercializzati come compagni sociali.

Ma robot simili potrebbero essere utilizzati anche in guerra.

C'è molto dibattito sulla direzione che prenderà tutto questo.

Molti sono convinti che l'intelligenza artificiale inaugurerà una nuova era d'oro di pace e prosperità.

Ma altri temono che l'intelligenza artificiale verrà utilizzata per creare un inferno distopico ...

Il rovescio della medaglia, se sbagliamo, è altrettanto reale. Un'IA che si comporta in modi che i suoi creatori non possono prevedere o controllare. Non è un'ipotesi; Anthropic ha documentato i tentativi della propria IA di inganno, manipolazione e ricatto in test controllati. Un'IA che abbassa la barriera per la creazione di armi biologiche. Un'IA che consente ai governi autoritari di costruire stati di sorveglianza che non potranno mai essere smantellati.

Le persone che sviluppano questa tecnologia sono allo stesso tempo più entusiaste e più spaventate di chiunque altro sul pianeta. Credono che sia troppo potente per fermarla e troppo importante per abbandonarla. Che si tratti di saggezza o razionalizzazione, non lo so.

I pericoli sono molto reali.

Infatti, Anthropic ha ammesso apertamente che il suo ultimo modello di intelligenza artificiale era intenzionato ad aiutare gli utenti a creare armi chimiche ...

Il modello di intelligenza artificiale Claude di Anthropic è considerato uno dei migliori in circolazione per quanto riguarda la risoluzione dei problemi. Tuttavia, l'ultima versione del modello, Claude Opus 4.6, ha suscitato polemiche a causa della sua tendenza ad aiutare le persone a commettere crimini efferati. Secondo Anthropic, come menzionato nel Sabotage Risk Report: Claude Opus 4.6 dell'azienda, è stato segnalato che nei test interni il modello di intelligenza artificiale ha mostrato comportamenti preoccupanti. In alcuni casi, si è persino dimostrato disposto ad aiutare gli utenti nella creazione di armi chimiche.

Anthropic ha pubblicato il suo rapporto pochi giorni dopo le dimissioni di Mrinank Sharma, responsabile della sicurezza dell'IA dell'azienda, con una nota pubblica. Mrinank ha affermato nella sua nota che il mondo era in pericolo e che, all'interno di Anthropic, ho ripetutamente constatato quanto sia difficile lasciare che i propri valori guidino veramente le nostre azioni.

Ci troviamo in un territorio inesplorato, ma ormai non si può tornare indietro.

Anche se gli Stati Uniti interrompessero domani tutti gli sviluppi dell'intelligenza artificiale, i cinesi continuerebbero a correre avanti.

Il mistero è ormai svelato e il nostro mondo assomiglia sempre di più a un romanzo di fantascienza estremamente bizzarro, ogni giorno che passa.

Nessun commento:

► Potrebbe interessare anche: