Da Fabrizio Corgnati
Lorenzo Tamos: «La verità sull’intelligenza artificiale e sui suoi rischi». L’avvocato Lorenzo Tamos spiega perché è importante studiare attentamente le norme europee che regolino lo sviluppo dell’intelligenza artificiale. L’intelligenza artificiale è indubbiamente uno dei temi del momento: se ne occupano l’informazione, la società, la politica, l’ingegneria, la filosofia, la giurisprudenza, finanche la letteratura. Ma, sospesi tra gli entusiasti per i possibili sviluppi tecnologici del nostro imminente futuro e i timorosi per i rischi di una deriva distopica, siamo sicuri di avere compreso davvero fino in fondo di cosa stiamo parlando? Il periodico ha chiesto lumi all’avvocato Lorenzo Tamos, che ha studiato a lungo questo argomento da una prospettiva non solo tecnica bensì umanistica.
Avvocato Lorenzo Tamos, intanto, che cos’è davvero l’intelligenza artificiale?
Questo termine è stato coniato da John McCarthy nel 1956 nel noto Dartmouth College in New Hampshire. E, come tanti diventati di moda, è entrato nella psiche collettiva e il mondo l’ha accolto come se fosse immediatamente comprensibile. Tanto che la gente pensa che l’intelligenza artificiale sia qualcosa che fa muovere le macchine emulando il movimento umano.
Non è così?
A mio avviso questa concezione è molto sbagliata. Dal punto di vista ingegneristico, l’intelligenza artificiale è un algoritmo: una serie di regole applicate a un sistema informatico, in grado di processore una quantità sempre maggiore di dati per ottenere un risultato. La filosofia tende a dare a questo algoritmo inserito in una macchina sofisticata la stessa funzione d’uso del bastone che usavano i nostri progenitori decine di migliaia di anni fa, per difendersi dai nemici o farsi largo nella foresta.
In pratica, è uno strumento molto più complesso, ma con il quale l’uomo ha lo stesso tipo di rapporto.
Non è così. Il problema è che il bastone accompagna l’azione per raggiungere uno scopo, l’algoritmo non solo elimina l’azione, ma sostituisce esso stesso lo scopo. Siamo passati da «saper fare» e «saper utilizzare» gli strumenti del Paleolitico, al solo «saper usare» le macchine: il mezzo non è più replicabile, se non mettendo insieme una serie di soggetti diversi.
Nessuno di noi comuni mortali è in grado di costruire un’intelligenza artificiale, dunque ne diventiamo dei meri utenti.
Ma oggi abbiamo raggiunto un ulteriore stadio: il «non sapere». In un ambiente tecnologico la tecnica è sempre più facile da utilizzare, quindi sta erodendo anche quel «saper utilizzare».
Ma l’intelligenza artificiale è considerabile come una macchina o piuttosto come un essere vivente? Qual è la differenza essenziale?
L’essenza dell’essere vivente è quella di resistere il più a lungo possibile alla morte quale ineluttabile fine. La macchina no: il suo destino è quello di svelare all’uomo che la sa utilizzare i suoi difetti. Questi vengono intercettati e la macchina viene sostituita con una sempre più performante. Dunque l’essenza della macchina è la sua più rapida cedevolezza possibile.
E qual è l’essenza dell’intelligenza artificiale?
Se l’intelligenza artificiale ha uno scopo, questo è il mantenimento dell’ambiente tecnologico. Lo stesso di quell’elite di studiosi nerd che si occupa di tecnologia ai massimi livelli, e che in proporzione guadagnano di più dei grandi azionisti delle big tech. Quindi il presupposto di tutto questo discorso è che abitiamo un grande apparato tecnico, in cui la tecnologia è imprescindibile.
Insomma, arriveremo al punto in cui anche dell’intelligenza artificiale non si potrà più fare a meno?
Se restiamo in questo scenario, siamo già imprigionati. È un finto paradiso che diventa un inferno. Aumenta il numero di persone, aumentano i loro bisogni, quindi si incrementa anche l’apparato tecnologico sempre più esasperato per soddisfarli. Con la nuova intelligenza artificiale cosiddetta autogenerativa, in grado di autoapprendere, anche i pochi grandi esperti utilizzano tecnologia per implementare la tecnologia.
Come dire che i computer riusciranno a evolvere se stessi?
Ultimamente un grande guru, Ben Goertzel, matematico, filosofo, musicista ha avvertito che, dal suo punto di vista, stiamo arrivando all’intelligenza artificiale generalista, che riuscirà ad autogenerare la propria implementazione.
E cosa risponde a chi teme una ribellione delle macchine contro gli uomini?
L’intelligenza artificiale non ha certamente lo scopo di far male agli uomini. Anzi, è molto più educabile. Per provocare una risonanza sentimentale nell’hardware freddo della macchina basta imprimerglielo. Come in ChatGpt, a cui sono stati dati dei limiti: ad esempio, non risponde a domande sulle fabbricazioni delle bombe o sull’organizzazione di atti terroristici. L’uomo è molto meno esposto a questa risonanza sentimentale, che si impara dal contesto sociale.
Da questo apparato tecnologico non abbiamo scampo, dunque?
Ci sono alcune comunità antropologiche, come i sentinelesi, o religiose, come gli amish, che hanno stabilizzato la tecnica: la utilizzano fino a un certo punto ma non vanno oltre. Usano i carri con i cavalli, cuciono i vestiti, costruiscono case, ma non altro. E teniamo conto che negli ultimi anni, dal 2020 in avanti, sono cresciuti del 102%, contro una crescita di popolazione negli Stati Uniti del 2-3%. C’è una migrazione di persone che ricercano un rapporto più diretto con la natura.
Dovremmo chiederci, allora, se il famoso apparato tecnologico di cui ci siamo dotati nelle moderne metropoli sia davvero così funzionale.
Io, per attraversare Milano in automobile nelle ore di punta, ci impiego anche due ore e mezza. Mentre i miei incontri di persona sono diminuiti tantissimo, con tutte le call e videocall via web. Che senso ha una concentrazione del genere nelle grandi città? Eppure tutta questa tecnica è entrata prepotentemente nella nostra mentalità collettiva.
Come si fa, allora, a indirizzare questa tecnologia in una direzione favorevole al benessere umano?
Bisogna meditare, interrogarsi in profondità e parlarne, come stiamo facendo ora. Soprattutto in termini giuridici. La nuova normativa europea è intrisa di principi umanistici ed etici, proprio per contrastare la potenza della tecnica. Il diritto si fa carico di questa necessità etico-sociologica. Non credo che un buon giurista possa assistere i suoi clienti se non comprende il tema nella sua profondità.
Non dobbiamo lasciare le chiavi solo in mano alla tecnocrazia.
Le persone che hanno la conoscenza tecnica, che sanno manovrare ad alti livelli i nuovi sistemi, sono un’elite sempre più ristretta. E stiamo arrivando al punto in cui sarà la tecnologia ad autogenerare se stessa. Per questo diventa importantissimo studiare le norme sull’intelligenza artificiale, perché sono quelle a imporre freni e valutazioni sul rischio delle possibili applicazioni.
Avvocato Lorenzo Tamos, intanto, che cos’è davvero l’intelligenza artificiale?
Questo termine è stato coniato da John McCarthy nel 1956 nel noto Dartmouth College in New Hampshire. E, come tanti diventati di moda, è entrato nella psiche collettiva e il mondo l’ha accolto come se fosse immediatamente comprensibile. Tanto che la gente pensa che l’intelligenza artificiale sia qualcosa che fa muovere le macchine emulando il movimento umano.
Non è così?
A mio avviso questa concezione è molto sbagliata. Dal punto di vista ingegneristico, l’intelligenza artificiale è un algoritmo: una serie di regole applicate a un sistema informatico, in grado di processore una quantità sempre maggiore di dati per ottenere un risultato. La filosofia tende a dare a questo algoritmo inserito in una macchina sofisticata la stessa funzione d’uso del bastone che usavano i nostri progenitori decine di migliaia di anni fa, per difendersi dai nemici o farsi largo nella foresta.
In pratica, è uno strumento molto più complesso, ma con il quale l’uomo ha lo stesso tipo di rapporto.
Non è così. Il problema è che il bastone accompagna l’azione per raggiungere uno scopo, l’algoritmo non solo elimina l’azione, ma sostituisce esso stesso lo scopo. Siamo passati da «saper fare» e «saper utilizzare» gli strumenti del Paleolitico, al solo «saper usare» le macchine: il mezzo non è più replicabile, se non mettendo insieme una serie di soggetti diversi.
Nessuno di noi comuni mortali è in grado di costruire un’intelligenza artificiale, dunque ne diventiamo dei meri utenti.
Ma oggi abbiamo raggiunto un ulteriore stadio: il «non sapere». In un ambiente tecnologico la tecnica è sempre più facile da utilizzare, quindi sta erodendo anche quel «saper utilizzare».
Ma l’intelligenza artificiale è considerabile come una macchina o piuttosto come un essere vivente? Qual è la differenza essenziale?
L’essenza dell’essere vivente è quella di resistere il più a lungo possibile alla morte quale ineluttabile fine. La macchina no: il suo destino è quello di svelare all’uomo che la sa utilizzare i suoi difetti. Questi vengono intercettati e la macchina viene sostituita con una sempre più performante. Dunque l’essenza della macchina è la sua più rapida cedevolezza possibile.
E qual è l’essenza dell’intelligenza artificiale?
Se l’intelligenza artificiale ha uno scopo, questo è il mantenimento dell’ambiente tecnologico. Lo stesso di quell’elite di studiosi nerd che si occupa di tecnologia ai massimi livelli, e che in proporzione guadagnano di più dei grandi azionisti delle big tech. Quindi il presupposto di tutto questo discorso è che abitiamo un grande apparato tecnico, in cui la tecnologia è imprescindibile.
Insomma, arriveremo al punto in cui anche dell’intelligenza artificiale non si potrà più fare a meno?
Se restiamo in questo scenario, siamo già imprigionati. È un finto paradiso che diventa un inferno. Aumenta il numero di persone, aumentano i loro bisogni, quindi si incrementa anche l’apparato tecnologico sempre più esasperato per soddisfarli. Con la nuova intelligenza artificiale cosiddetta autogenerativa, in grado di autoapprendere, anche i pochi grandi esperti utilizzano tecnologia per implementare la tecnologia.
Come dire che i computer riusciranno a evolvere se stessi?
Ultimamente un grande guru, Ben Goertzel, matematico, filosofo, musicista ha avvertito che, dal suo punto di vista, stiamo arrivando all’intelligenza artificiale generalista, che riuscirà ad autogenerare la propria implementazione.
E cosa risponde a chi teme una ribellione delle macchine contro gli uomini?
L’intelligenza artificiale non ha certamente lo scopo di far male agli uomini. Anzi, è molto più educabile. Per provocare una risonanza sentimentale nell’hardware freddo della macchina basta imprimerglielo. Come in ChatGpt, a cui sono stati dati dei limiti: ad esempio, non risponde a domande sulle fabbricazioni delle bombe o sull’organizzazione di atti terroristici. L’uomo è molto meno esposto a questa risonanza sentimentale, che si impara dal contesto sociale.
Da questo apparato tecnologico non abbiamo scampo, dunque?
Ci sono alcune comunità antropologiche, come i sentinelesi, o religiose, come gli amish, che hanno stabilizzato la tecnica: la utilizzano fino a un certo punto ma non vanno oltre. Usano i carri con i cavalli, cuciono i vestiti, costruiscono case, ma non altro. E teniamo conto che negli ultimi anni, dal 2020 in avanti, sono cresciuti del 102%, contro una crescita di popolazione negli Stati Uniti del 2-3%. C’è una migrazione di persone che ricercano un rapporto più diretto con la natura.
Dovremmo chiederci, allora, se il famoso apparato tecnologico di cui ci siamo dotati nelle moderne metropoli sia davvero così funzionale.
Io, per attraversare Milano in automobile nelle ore di punta, ci impiego anche due ore e mezza. Mentre i miei incontri di persona sono diminuiti tantissimo, con tutte le call e videocall via web. Che senso ha una concentrazione del genere nelle grandi città? Eppure tutta questa tecnica è entrata prepotentemente nella nostra mentalità collettiva.
Come si fa, allora, a indirizzare questa tecnologia in una direzione favorevole al benessere umano?
Bisogna meditare, interrogarsi in profondità e parlarne, come stiamo facendo ora. Soprattutto in termini giuridici. La nuova normativa europea è intrisa di principi umanistici ed etici, proprio per contrastare la potenza della tecnica. Il diritto si fa carico di questa necessità etico-sociologica. Non credo che un buon giurista possa assistere i suoi clienti se non comprende il tema nella sua profondità.
Non dobbiamo lasciare le chiavi solo in mano alla tecnocrazia.
Le persone che hanno la conoscenza tecnica, che sanno manovrare ad alti livelli i nuovi sistemi, sono un’elite sempre più ristretta. E stiamo arrivando al punto in cui sarà la tecnologia ad autogenerare se stessa. Per questo diventa importantissimo studiare le norme sull’intelligenza artificiale, perché sono quelle a imporre freni e valutazioni sul rischio delle possibili applicazioni.
La tecnologia informatica, per quanto sia evoluta, resta sempre il prodotto di menti umane. Il momento in cui la macchina si auto-riproduce, non mi pare sia ancora arrivato.
RispondiEliminaFino ad oggi la cosiddetta AI è un algoritmo che può imparare la specifica cosa per cui è stata programmata. Ad esempio, l'aspirapolvere intelligente può imparare la pianta dei locali in cui viene utilizzato, imprimendo nei propri supporti di memoria l'esatta collocazione di mobili e la mappa delle diverse stanze, ma difficilmente imparerà a parlare una lingua che non gli sia stata preventivamente "insegnata o programmata".
Per realizzare "il salto di qualità" con il quale la macchina possa effettivamente assomigliare le sue capacità di imparare a quelle dell'essere umano, ci vorrebbero:
1) Un team di programmatori molto esperti che siano al contempo del tutto imparziali rispetto agli argomenti da implementare (cosa del tutto improbabile visto che persone potenzialmente adatte allo scopo sono automaticamente emarginate dalla società plutocrate in cui viviamo) e
2) Una potenza di calcolo a disposizione tale, che neanche il data-mining riuscirebbe a soddisfare.
Detto per inciso, sarebbero in poche persone potenti a potersi avvalere del risultato degli algoritmi AI di questo livello.