Geoffrey Hinton afferma che i "cattivi attori" potrebbero sfruttare l'intelligenza artificiale per "cose cattive". Lo scienziato vincitore del Turing Award, Geoffrey Hinton, si è dimesso da Google il mese scorso, dove aveva trascorso gran parte dell'ultimo decennio a sviluppare programmi di intelligenza artificiale generativa (AI), e ha avvertito dei rischi che il lavoro della sua vita potrebbe presentare all'umanità.
Hinton è accreditato di essere una figura fondamentale nell'avvento dell'Intelligenza Artificiale (AI), ma ha dichiarato al New York Times in una lunga intervista pubblicata lunedì di aver preso la decisione di uscire nel mezzo di una corsa agli armamenti de facto nella Silicon Valley tra Google e Microsoft.
La controversa tecnologia ha costituito la base per software di intelligenza artificiale generativa come ChatGPT e Google Bard, mentre i giganti del settore tecnologico si tuffano in una nuova frontiera scientifica, quella che si aspettano costituirà la base del futuro delle loro aziende.
Hinton ha detto al NYT che la sua motivazione per lasciare Google era quella di poter parlare senza supervisione della tecnologia che ora considera un pericolo per l'umanità. “Mi consolo con la solita scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro”, ha detto al quotidiano statunitense.
I chatbot rivolti al pubblico come ChatGPT hanno fornito uno sguardo alla preoccupazione di Hinton. Sebbene siano visti da alcuni solo come novità di Internet, altri hanno messo in guardia dalle potenziali ramificazioni in relazione alla diffusione della disinformazione online e al loro impatto sull'occupazione.
E mentre Hinton non ha aggiunto la sua firma alla lettera, la sua posizione sul potenziale uso improprio dell'intelligenza artificiale è chiara: "È difficile vedere come puoi impedire ai cattivi attori di usarla per cose cattive".
Hinton è accreditato di essere una figura fondamentale nell'avvento dell'Intelligenza Artificiale (AI), ma ha dichiarato al New York Times in una lunga intervista pubblicata lunedì di aver preso la decisione di uscire nel mezzo di una corsa agli armamenti de facto nella Silicon Valley tra Google e Microsoft.
La controversa tecnologia ha costituito la base per software di intelligenza artificiale generativa come ChatGPT e Google Bard, mentre i giganti del settore tecnologico si tuffano in una nuova frontiera scientifica, quella che si aspettano costituirà la base del futuro delle loro aziende.
Hinton ha detto al NYT che la sua motivazione per lasciare Google era quella di poter parlare senza supervisione della tecnologia che ora considera un pericolo per l'umanità. “Mi consolo con la solita scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro”, ha detto al quotidiano statunitense.
I chatbot rivolti al pubblico come ChatGPT hanno fornito uno sguardo alla preoccupazione di Hinton. Sebbene siano visti da alcuni solo come novità di Internet, altri hanno messo in guardia dalle potenziali ramificazioni in relazione alla diffusione della disinformazione online e al loro impatto sull'occupazione.
E mentre Hinton non ha aggiunto la sua firma alla lettera, la sua posizione sul potenziale uso improprio dell'intelligenza artificiale è chiara: "È difficile vedere come puoi impedire ai cattivi attori di usarla per cose cattive".
Il capo di Google avverte dei potenziali pericoli dell'IA
Sundar Pichai afferma che la società deve "adattarsi" all'intelligenza artificiale
L'intelligenza artificiale (AI) avrà presto un impatto su "ogni prodotto di ogni azienda", ha dichiarato domenica il CEO di Google e Alphabet Sundar Pichai, avvertendo dei pericoli che la tecnologia rappresenta per i settori occupazionali e la distribuzione di disinformazione.
"Dobbiamo adattarci come società", ha detto Pichai alla rete televisiva americana CBS. Ha aggiunto che la crescita del lavoro e la sostenibilità saranno interrotte per le industrie che fanno affidamento su quelli che ha definito "lavoratori della conoscenza", come scrittori, contabili e persino gli ingegneri che hanno progettato il software.
Google ha lanciato il suo "chatbot" AI, Bard, il mese scorso. Ciò ha fatto seguito al debutto di ChatGPT online di OpenAI nel 2022, che ha ricevuto una pubblicità significativa per la sua capacità di comporre documenti accademici e scrivere passaggi intricati e dettagliati di prosa con un linguaggio simile a quello umano, tra le altre utilità.
Tuttavia, i chatbot AI, e in particolare ChatGPT, hanno avuto i loro critici. È stato vietato in Italia all'inizio di questo mese per potenziali problemi di privacy, mentre i giganti della tecnologia Elon Musk e Steve Wozniak, insieme a dozzine di accademici, hanno chiesto la sospensione degli esperimenti di intelligenza artificiale. La tecnologia dovrebbe essere "rigorosamente verificata e supervisionata da esperti esterni indipendenti", si legge in una lettera aperta co-firmata da Musk e Wozniak.
Anche Pichai ha avvertito dei potenziali rischi dell'IA. La diffusione di notizie false, video e immagini sarà "molto più grande ", ha detto, e "potrebbe causare danni". Google aveva precedentemente pubblicato un documento online che chiedeva la regolamentazione della tecnologia per garantire che "si allinei con i valori umani, inclusa la moralità".
Ha spiegato alla CBS: “Non spetta a un'azienda decidere. Questo è il motivo per cui penso che lo sviluppo di questo debba includere non solo ingegneri ma scienziati sociali, esperti di etica, filosofi e così via. Secondo Pichai, rimane una "scatola nera" nell'intelligenza artificiale che "non comprendiamo appieno". Sia ChatGPT che Bard non sono stati privi di errori. Bard, quando gli è stato chiesto di spiegare l'inflazione a Scott Pelley della CBS, gli ha consigliato di leggere cinque libri per comprendere meglio l'argomento, nessuno dei quali esisteva. ChatGPT ha anche fallito in alcune attività di base ed è stato segnalato che ha fornito risposte plausibili ma del tutto errate alle domande. Hinton sostiene che Google ha agito in modo "molto responsabile" nella sua gestione dell'intelligenza artificiale, ma alla fine, afferma, i proprietari della tecnologia potrebbero inevitabilmente perdere il controllo. Ciò potrebbe portare a uno scenario, dice, in cui informazioni, foto e video falsi sono indeterminabili da informazioni reali e portare le persone a non sapere "cosa è più vero".
"L'idea che questa roba potesse effettivamente diventare più intelligente delle persone - alcune persone ci credevano", ha detto Hinton al NYT. “Ma la maggior parte delle persone pensava che fosse lontano. E ho pensato che fosse lontano. Pensavo che mancassero dai 30 ai 50 anni o anche di più. Ovviamente non lo penso più”.
Nessun commento:
Posta un commento