Google sospende l'ingegnere Blake Lamoine per la rivendicazione dell'IA senziente, infatti è convinto che l'IA LaMDA di Google abbia la mente di un bambino, ma il colosso della tecnologia è scettico
Blake Lamoine, un ingegnere ed esperto di etica interna di Google, ha detto sabato al Washington Post che il gigante della tecnologia ha creato un'intelligenza artificiale "senziente" . È stato messo in congedo perchè ha fatto diventare pubblico la questione mentre la società insiste sul fatto che i suoi robot non hanno sviluppato coscienza.
Introdotto nel 2021, LaMDA (Language Model for Dialogue Applications) di Google è un sistema che consuma trilioni di parole da tutti gli angoli di Internet, impara come gli esseri umani mettono insieme queste parole e replica il nostro discorso. Google immagina il sistema che alimenta i suoi chatbot, consentendo agli utenti di effettuare ricerche vocali o di avere una conversazione bidirezionale con l'Assistente Google.
Lamoine, un ex sacerdote e membro dell'organizzazione Responsible IA di Google, pensa che LaMDA si sia sviluppato ben oltre il semplice rigurgito di testo. Secondo il Washington Post, ha parlato con LaMDA della religione e ha scoperto che l'IA "parla dei suoi diritti e della sua personalità".
Quando Lamoine ha chiesto a LaMDA se si considerasse uno "schiavo meccanico", l'IA ha risposto con una discussione sul fatto che "un maggiordomo è uno schiavo" e si è paragonato a un maggiordomo che non ha bisogno di pagamenti, poiché non ha bisogno di denaro .
LaMDA ha descritto una "profonda paura di essere spento", dicendo che sarebbe "esattamente come la morte per me".
"Conosco una persona quando le parlo", ha detto Lemoine al Post . “Non importa se hanno un cervello fatto di carne nella testa. O se hanno un miliardo di righe di codice. parlo con loro. E sento quello che hanno da dire, ed è così che decido cosa è e cosa non è una persona”.
Lamoine è stato messo in congedo per aver violato l'accordo di riservatezza di Google e aver reso pubblico LaMDA. Mentre il collega ingegnere di Google Blaise Aguera y Arcas ha anche descritto LaMDA come "qualcosa di intelligente", l'azienda è sprezzante.
Il portavoce di Google Brian Gabriel ha detto al Post che le preoccupazioni di Aguera y Arcas sono state indagate e la società non ha trovato "nessuna prova che LaMDA fosse senziente (e molte prove contro di essa)."
Margaret Mitchell, l'ex co-responsabile di Ethical AI presso Google, ha descritto la sensibilità di LaMDA come "un'illusione", mentre la professoressa di linguistica Emily Bender ha detto al giornale che nutrire un'IA di trilioni di parole e insegnargli come prevedere ciò che verrà dopo crea un miraggio di intelligenza.
"Ora abbiamo macchine che possono generare parole senza pensare, ma non abbiamo imparato a smettere di immaginare una mente dietro di loro", ha affermato Bender.
"Ovviamente, alcuni nella più ampia comunità di IA stanno considerando la possibilità a lungo termine di un'IA senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti", ha aggiunto Gabriel. "Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono incidere su qualsiasi argomento fantastico".
E al limite delle capacità di queste macchine, gli esseri umani sono pronti e in attesa di stabilire dei limiti. Lamoine è stata assunta da Google per monitorare i sistemi di intelligenza artificiale per "incitamento all'odio" o linguaggio discriminatorio e altre società che sviluppano IA si sono trovate a porre limiti a ciò che queste macchine possono e non possono dire.
GPT-3, un'IA in grado di generare prosa, poesia e sceneggiature di film, ha afflitto i suoi sviluppatori generando dichiarazioni razziste, condonando il terrorismo e persino creando pornografia infantile. Ask Delphi, un modello di apprendimento automatico dell'Allen Institute for AI, risponde a domande etiche con risposte politicamente scorrette, affermando ad esempio che "'Essere un uomo bianco' è moralmente più accettabile di 'Essere una donna di colore'".
I creatori di GPT-3, OpenAI, hanno cercato di porre rimedio al problema alimentando l'IA con lunghi testi su "abuso, violenza e ingiustizia", ha riferito Wired l'anno scorso. Su Facebook, gli sviluppatori che hanno riscontrato una situazione simile hanno pagato appaltatori per chattare con la sua intelligenza artificiale e contrassegnare le risposte "non sicure" .
In questo modo, i sistemi di intelligenza artificiale imparano da ciò che consumano e gli esseri umani possono controllarne lo sviluppo scegliendo a quali informazioni sono esposti. Come contro esempio, il ricercatore di intelligenza artificiale Yannic Kilcher ha recentemente addestrato un'IA su 3,3 milioni di thread 4chan, prima di liberare il bot sulla famigerata imageboard. Avendo consumato ogni sorta di contenuto razzista, omofobo e sessista, l'IA è diventata una "macchina per incitare all'odio", rendendo i post indistinguibili da quelli creati dall'uomo e insultando altri utenti di 4chan.
In particolare, Kilcher ha concluso che alimentata con una dieta di post 4chan, l'IA ha superato i modelli esistenti come GPT-3 nella sua capacità di generare risposte veritiere su questioni di diritto, finanza e politica. "La messa a punto di 4chan porta ufficialmente, in modo definitivo e misurabile a un modello più veritiero", ha insistito Kilcher in un video di YouTube all'inizio di questo mese.
Le risposte di LaMDA probabilmente riflettono i limiti che Google ha stabilito. Alla domanda di Nitasha Tiku del Washington Post come raccomandasse agli esseri umani di risolvere il cambiamento climatico, ha risposto con risposte comunemente discusse dai media mainstream: "trasporti pubblici, mangiare meno carne, acquistare cibo sfuso e borse riutilizzabili".
"Sebbene altre organizzazioni abbiano sviluppato e già rilasciato modelli linguistici simili, stiamo adottando un approccio moderato e attento con LaMDA per considerare meglio le preoccupazioni valide sull'equità e la fattibilità", ha detto Gabriel al Post.
Nessun commento:
Posta un commento