mercoledì 11 febbraio 2026

Un ricercatore sulla sicurezza dell'intelligenza artificiale si dimette con un avvertimento criptico

Mrinank Sharma © LinkedIn
"Il mondo è in pericolo", ha scritto il responsabile del Safeguards Research Team di Anthropic nella sua lettera di dimissioni

Mrinank Sharma, uno dei principali ricercatori sulla sicurezza dell'intelligenza artificiale, si è dimesso da Anthropic con un enigmatico avvertimento sulle "crisi interconnesse" globali, annunciando il suo piano di diventare "invisibile per un periodo di tempo".

Sharma, laureato a Oxford e a capo del Safeguards Research Team del produttore di chatbot Claude, ha pubblicato lunedì X la sua lettera di dimissioni, descrivendo una crescente presa di coscienza personale della "nostra situazione".

"Il mondo è in pericolo. E non solo a causa dell'intelligenza artificiale o delle armi biologiche, ma a causa di tutta una serie di crisi interconnesse che si stanno verificando proprio in questo momento", ha scritto Sharma ai colleghi.

La partenza avviene in un momento di crescenti tensioni attorno al laboratorio di intelligenza artificiale con sede a San Francisco, che sta contemporaneamente correndo per sviluppare sistemi sempre più potenti mentre i suoi stessi dirigenti avvertono che quelle stesse tecnologie potrebbero danneggiare l'umanità.

Ciò segue anche le segnalazioni di una frattura sempre più ampia tra Anthropic e il Pentagono in merito al desiderio dell'esercito di impiegare l'intelligenza artificiale per il puntamento di armi autonome senza le garanzie che l'azienda ha cercato di imporre.

Le dimissioni di Sharma, arrivate pochi giorni dopo il rilascio da parte di Anthropic di Opus 4.6, una versione più potente del suo strumento di punta Claude, hanno lasciato intendere attriti interni sulle priorità di sicurezza.

"Durante il mio periodo qui, ho ripetutamente constatato quanto sia difficile lasciare che i nostri valori governino veramente le nostre azioni", ha scritto. "L'ho visto dentro di me, all'interno dell'organizzazione, dove siamo costantemente sotto pressione per mettere da parte ciò che conta di più, e anche nella società in generale".

Il team di ricercatori è stato istituito poco più di un anno fa con il compito di affrontare le minacce alla sicurezza dell'intelligenza artificiale, tra cui "l'uso improprio e il disallineamento dei modelli", la prevenzione del bioterrorismo e la "prevenzione delle catastrofi".

Sharma ha sottolineato con orgoglio il suo lavoro nello sviluppo di difese contro le armi biologiche assistite dall'intelligenza artificiale e il suo "progetto finale sulla comprensione di come gli assistenti dell'intelligenza artificiale potrebbero renderci meno umani o distorcere la nostra umanità". Ora intende tornare nel Regno Unito per "conseguire una laurea in poesia" e "diventare invisibile per un certo periodo di tempo".

L'amministratore delegato di Anthropic, Dario Amodei, ha ripetutamente messo in guardia dai pericoli posti dalla stessa tecnologia che la sua azienda sta commercializzando. In un saggio di quasi 20.000 parole del mese scorso, ha ammonito che sistemi di intelligenza artificiale di "potenza quasi inimmaginabile" sono "imminenti" e "metteranno alla prova la nostra identità come specie".

Amodei ha messo in guardia dai “rischi di autonomia” in cui l’intelligenza artificiale potrebbe “diventare una canaglia e sopraffare l’umanità”, e ha suggerito che la tecnologia potrebbe consentire “una dittatura totalitaria globale” attraverso la sorveglianza basata sull’intelligenza artificiale e armi autonome.

Nessun commento:

► Potrebbe interessare anche: