Una figura a grandezza naturale di un robot terminator "T-800", utilizzato nel film "Terminator 2". © AFP/Yoshikazu Tsuno |
di RtNews
"Tutti sulla Terra moriranno", avverte il massimo ricercatore di intelligenza artificiale. L'umanità non è preparata a sopravvivere a un incontro con un'intelligenza artificiale molto più intelligente, afferma Eliezer Yudkowsky
Arrestare lo sviluppo di sistemi avanzati di intelligenza artificiale in tutto il mondo e punire severamente coloro che violano la moratoria è l'unico modo per salvare l'umanità dall'estinzione, ha avvertito un ricercatore di IA di alto profilo.
Eliezer Yudkowsky, co-fondatore del Machine Intelligence Research Institute (MIRI), ha scritto un articolo di opinione per la rivista TIME mercoledì, spiegando perché non ha firmato una petizione che invitava "tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno sei mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4", un modello di linguaggio multimodale di grandi dimensioni, rilasciato da OpenAI all'inizio di questo mese.
Yudkowsky ha sostenuto che la lettera, firmata da artisti del calibro di Elon Musk e Steve Wozniak di Apple, "chiedeva troppo poco per risolvere" il problema posto dallo sviluppo rapido e incontrollato dell'IA.
"Il risultato più probabile della costruzione di un'intelligenza artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, è che letteralmente tutti sulla Terra moriranno", ha scritto Yudkowsky.
Sopravvivere a un incontro con un sistema informatico che "non si prende cura di noi né della vita senziente in generale" richiederebbe "precisione e preparazione e nuove intuizioni scientifiche" che l'umanità manca al momento ed è improbabile che ottenga nel prossimo futuro, ha affermato. .
"Un'intelligenza artificiale sufficientemente intelligente non rimarrà confinata a lungo nei computer", ha avvertito Yudkowsky. Ha spiegato che il fatto che sia già possibile inviare stringhe di DNA ai laboratori per produrre proteine consentirà probabilmente all'intelligenza artificiale di "costruire forme di vita artificiale o avviarsi direttamente alla produzione molecolare postbiologica" e uscire nel mondo.
Secondo il ricercatore, deve essere introdotta immediatamente una moratoria a tempo indeterminato e mondiale sulle nuove importanti corse di addestramento dell'IA. "Non ci possono essere eccezioni, anche per governi o militari", ha sottolineato.
Dovrebbero essere firmati accordi internazionali per porre un limite alla quantità di potenza di calcolo che chiunque può utilizzare per addestrare tali sistemi, ha insistito Yudkowsky.
“Se l'intelligence dice che un paese al di fuori dell'accordo sta costruendo un cluster GPU (unità di elaborazione grafica), abbi meno paura di un conflitto a fuoco tra le nazioni che della violazione della moratoria; essere disposti a distruggere un data center canaglia con un attacco aereo", ha scritto.
La minaccia dell'intelligenza artificiale è così grande che dovrebbe essere reso "esplicito nella diplomazia internazionale che la prevenzione degli scenari di estinzione dell'IA è considerata una priorità rispetto alla prevenzione di uno scambio nucleare completo", ha aggiunto.
Nessun commento:
Posta un commento
grazie del tuo commento