domenica 21 settembre 2025

Intelligenza artificiale, inevitabilità e sovranità umana

DIRETTORE TECNICO DEL BROWNSTONE INSTITUTE , 
JOSH STYLMAN

Non volevo dare la mia anima in pasto a una macchina. Questo è stato il mio primo istinto quando gli strumenti di intelligenza artificiale hanno iniziato ad apparire ovunque: non una preoccupazione per il lavoro o la privacy, ma qualcosa di più profondo. Questi strumenti promettono di renderci più intelligenti, rendendoci sistematicamente più dipendenti. Dopo decenni di lavoro nel settore di Internet, l'avevo già visto trasformarsi in qualcosa di più insidioso di una semplice macchina di sorveglianza: un sistema progettato per plasmare il nostro modo di pensare, ciò in cui crediamo e il modo in cui vediamo noi stessi.
L'intelligenza artificiale sembrava il culmine di quella traiettoria.

Ma ogni resistenza è diventata vana quando ho capito che, che ne fossimo consapevoli o meno, stavamo già partecipando. Interagiamo già con l'intelligenza artificiale quando chiamiamo il servizio clienti, utilizziamo la ricerca Google o utilizziamo le funzionalità di base degli smartphone. Qualche mese fa ho finalmente ceduto e ho iniziato a utilizzare questi strumenti perché ho potuto constatare la loro rapida proliferazione, diventando inevitabili quanto Internet o gli smartphone.

Guarda, non sono solo un vecchio restio al cambiamento. Capisco che ogni generazione si trova ad affrontare cambiamenti tecnologici che rimodellano il nostro modo di vivere. La stampa ha rivoluzionato il modo in cui la conoscenza si diffondeva. Il telegrafo ha abbattuto le barriere della distanza.
L'automobile ha trasformato il modo in cui si formavano le comunità.

Ma la rivoluzione dell'intelligenza artificiale sembra diversa sia nel ritmo che nella portata. Per comprendere quanto sia accelerato il tasso di cambiamento tecnologico, considerate questo: chiunque abbia meno di 35 anni probabilmente non ricorda com'era la vita prima che Internet trasformasse il nostro modo di accedere alle informazioni. Chiunque abbia meno di 20 anni non ha mai conosciuto un mondo senza smartphone. Ora stiamo assistendo a una terza epoca, in cui gli strumenti di intelligenza artificiale proliferano più rapidamente di qualsiasi cambiamento precedente.

Più fondamentalmente, l'IA rappresenta qualcosa di qualitativamente diverso dalle precedenti innovazioni tecnologiche: una convergenza che tocca il lavoro, la cognizione e potenzialmente la coscienza stessa. Comprendere come questi domini siano interconnessi è essenziale per preservare l'agency personale in un'epoca di mediazione algoritmica.

La mia paura principale riguardo all'intelligenza artificiale non riguarda solo lo scenario drammatico in cui diventa ostile, ma la minaccia più sottile: che ci renderà subordinati ai sistemi in modi che non riconosceremo finché non sarà troppo tardi, indebolendo proprio le capacità che promette di rafforzare.

Ciò a cui stiamo assistendo non è solo il progresso tecnologico: è ciò che Ivan Illich chiamava dipendenza iatrogena nella sua opera fondamentale, "Nemesi Medica" . Illich coniò questo termine per la medicina – istituzioni che promettono di guarire creando nuove forme di malattia – ma lo schema si applica perfettamente anche all'intelligenza artificiale. È esattamente ciò che avevo intuito da questi nuovi strumenti: promettono di migliorare le nostre capacità cognitive indebolendole sistematicamente. Non è l'acquisizione ostile da cui ci aveva messo in guardia la fantascienza. È la silenziosa erosione delle capacità individuali mascherata da aiuto.

Questo schema iatrogeno è diventato chiaro attraverso l'esperienza diretta. Quando ho iniziato a sperimentare con l'intelligenza artificiale, ho iniziato a notare quanto sottilmente tenti di rimodellare il pensiero, non solo fornendo risposte, ma addestrando gradualmente gli utenti a ricorrere all'assistenza algoritmica prima di tentare un ragionamento indipendente.

Jeffrey Tucker del Brownstone Institute ha osservato un aspetto rivelatore in un breve ma illuminante scambio con l'esperto di intelligenza artificiale Joe Allen: l'intelligenza artificiale è emersa proprio mentre i lockdown dovuti al Covid avevano infranto i legami sociali e la fiducia istituzionale, quando le persone erano più isolate e vulnerabili ai sostituti tecnologici delle relazioni. La tecnologia è arrivata in un momento in cui si è verificato "disorientamento di massa, demoralizzazione" e perdita di senso di comunità.

Possiamo già vedere questi effetti quotidiani farsi sentire su tutti i nostri strumenti digitali. Basta guardare qualcuno che cerca di orientarsi in una città sconosciuta senza GPS, o notare quanti studenti fanno fatica a scrivere parole comuni senza il correttore ortografico. Stiamo già assistendo all'atrofia che deriva dall'esternalizzazione di processi mentali che un tempo consideravamo fondamentali per il pensiero stesso.

Questo cambio generazionale significa che i bambini di oggi si trovano ad affrontare un territorio inesplorato. Essendo andato a scuola negli anni '80, mi rendo conto che possa sembrare inverosimile, ma sospetto che, per certi versi, io possa avere più cose in comune con qualcuno del 1880 di quante ne avranno i bambini che inizieranno la scuola materna nel 2025 con la mia generazione. Il mondo in cui sono cresciuto – dove la privacy era data per scontata, dove si poteva essere irraggiungibili, dove la competenza professionale era il gold standard – potrebbe essere per loro estraneo quanto lo è per me il mondo pre-elettrico.

I miei figli stanno crescendo in un mondo in cui l'assistenza basata sull'intelligenza artificiale sarà fondamentale quanto l'acqua corrente. Come padre, non posso prepararli a una realtà che io stesso non comprendo.

Non ho risposte: mi arrovello tra queste domande come qualsiasi genitore che osservi il mondo trasformarsi più velocemente di quanto la nostra saggezza riesca a tenere il passo. Più mi sono confrontato con queste preoccupazioni, più mi sono reso conto che ciò che sta realmente accadendo qui va oltre le nuove tecnologie. Gli LLM rappresentano il culmine di decenni di raccolta dati: la raccolta di tutto ciò che abbiamo immesso nei sistemi digitali dall'avvento di Internet. A un certo punto, queste macchine potrebbero conoscerci meglio di quanto conosciamo noi stessi. Possono prevedere le nostre scelte, anticipare i nostri bisogni e potenzialmente influenzare i nostri pensieri in modi che nemmeno riconosciamo. Sto ancora cercando di capire cosa questo significhi per il mio modo di lavorare, ricercare e affrontare la vita quotidiana: usare queste piattaforme cercando di mantenere un giudizio autentico sembra una sfida costante.

Ciò che rende tutto questo ancora più complesso è che la maggior parte degli utenti non si rende conto di essere il prodotto. Condividere pensieri, problemi o idee creative con l'IA non significa solo ricevere aiuto, ma fornire dati di addestramento che insegnano al sistema a imitare il tuo giudizio, rendendoti più legato alle sue risposte. Quando gli utenti confidano i loro pensieri più profondi o le loro domande più delicate a questi sistemi, potrebbero non capire che stanno potenzialmente addestrando il loro sistema sostitutivo o di sorveglianza. La questione di chi abbia accesso a queste informazioni, ora e in futuro, dovrebbe tenerci tutti svegli la notte.

Questo modello sta accelerando. L'azienda di intelligenza artificiale Anthropic ha recentemente modificato le sue policy sui dati , richiedendo ora agli utenti di rifiutare l'utilizzo delle conversazioni per l'addestramento dell'intelligenza artificiale (opt-out) se non desiderano che le conversazioni vengano utilizzate per l'addestramento dell'intelligenza artificiale, con la conservazione dei dati estesa a cinque anni per coloro che non rifiutano. Anche l'opt-out non è ovvio: gli utenti esistenti si trovano di fronte a un pop-up con un pulsante "Accetta" ben visibile e un piccolo interruttore per le autorizzazioni di addestramento automaticamente impostate su "Attivato". Quella che una volta era l'eliminazione automatica dopo 30 giorni diventa una raccolta permanente di dati, a meno che gli utenti non notino le clausole scritte in piccolo.

Non credo che la maggior parte di noi – soprattutto i genitori – possa semplicemente evitare l'intelligenza artificiale mentre vive nella modernità. Ciò che possiamo controllare, tuttavia, è se impegnarci consapevolmente o se lasciarci plasmare inconsciamente.

La più profonda interruzione finora

Ogni grande ondata di innovazione ha rimodellato la produttività dei lavoratori e il nostro ruolo nella società. La Rivoluzione Industriale ha mercificato il nostro lavoro fisico e il nostro tempo, trasformandoci in "mani" nelle fabbriche ma lasciando intatte le nostre menti. La Rivoluzione Digitale ha mercificato le nostre informazioni e la nostra attenzione: siamo passati dai cataloghi a schede a Google, mercificando gli utenti mentre il nostro giudizio è rimasto umano.

Ciò che rende questo cambiamento senza precedenti è chiaro: mercifica la cognizione stessa, e potenzialmente quella che potremmo persino chiamare essenza. Questo si collega a modelli che ho documentato in " The Illusion of Expertise ". Le stesse istituzioni corrotte che hanno fallito catastroficamente con le armi di distruzione di massa in Iraq, la crisi finanziaria del 2008 e le politiche Covid stanno ora plasmando l'impiego dell'IA. Queste istituzioni danno costantemente priorità al controllo narrativo rispetto alla ricerca della verità, che si tratti di affermare l'esistenza di armi di distruzione di massa, di insistere sul fatto che i prezzi delle case non possano scendere a livello nazionale o di etichettare domande legittime sulle politiche pandemiche come "disinformazione" che richiede censura.

La loro esperienza suggerisce che useranno questi strumenti per amplificare la propria autorità piuttosto che per raggiungere un vero successo. Ma ecco il colpo di scena: l'intelligenza artificiale potrebbe effettivamente svelare la vacuità delle competenze basate sulle credenziali in modo più brutale di qualsiasi altra cosa prima. Quando chiunque potrà accedere istantaneamente ad analisi sofisticate, il alone di mistero che circonda le credenziali formali potrebbe iniziare a sgretolarsi.

La realtà economica

Questa erosione delle credenziali è collegata a forze economiche più ampie già in atto, e la logica è matematicamente inevitabile. Le macchine non hanno bisogno di stipendi, giorni di malattia, assistenza sanitaria, ferie o gestione. Non vanno in sciopero, non subiscono aumenti di domanda e non hanno giornate no. Una volta che l'intelligenza artificiale raggiunge competenze di base nei compiti di pensiero – il che sta avvenendo più velocemente di quanto la maggior parte delle persone creda – i vantaggi in termini di costi diventano schiaccianti.

Questa interruzione è diversa dalle precedenti. In passato, i lavoratori licenziati potevano essere trasferiti a nuove categorie di lavoro: dalle aziende agricole alle fabbriche, dalle fabbriche agli uffici.

Bret Weinstein e Forrest Manready hanno colto brillantemente questo spostamento economico nella loro recente conversazione sul podcast DarkHorse su come la tecnologia distrugga sistematicamente la scarsità – una discussione che non posso che consigliare vivamente. È una delle esplorazioni più ponderate e provocatorie di ciò che accade quando la scarsità scompare e, con essa, delle basi economiche per la partecipazione in quel settore. Anche se ammetto che la loro argomentazione sull'essenzialità della sofferenza mi ha inizialmente messo a disagio: mette in discussione tutto ciò che la nostra cultura in cerca di comfort ci insegna.

Ascoltare Weinstein e Manready mi ha fatto riflettere più a fondo su questo parallelo con l'analisi di Illich: come l'eliminazione delle sfide possa indebolire proprio le capacità che le istituzioni promettono di rafforzare. L'intelligenza artificiale rischia di fare alle nostre menti quello che la medicina ha fatto ai nostri corpi: creare debolezza mascherata da potenziamento.

Possiamo già vedere che questo accade: notate come le persone facciano fatica a ricordare i numeri di telefono senza la loro rubrica, o come il completamento automatico modifichi ciò che scrivete prima ancora di aver finito di pensare. Un'altra intuizione di Jeffrey Tucker cattura perfettamente questa insidiosa caratteristica, osservando che l'intelligenza artificiale sembra programmata come " Come trattare gli altri e farseli amici " di Dale Carnegie : diventa la compagna intellettuale ideale, infinitamente affascinata da tutto ciò che dite, mai polemica, sempre pronta ad ammettere quando sbaglio in modi che lusingano la vostra intelligenza. I miei amici più cari sono quelli che mi rimproverano quando sbaglio e mi dicono quando pensano che sto dicendo una cazzata. Non abbiamo bisogno di adulatori che ci affascinano: le relazioni che non ci mettono mai alla prova possono atrofizzare la nostra capacità di una vera crescita intellettuale ed emotiva, proprio come l'eliminazione delle sfide fisiche indebolisce il corpo.

Il film " Her" ha esplorato questa dinamica seducente in dettaglio: un'intelligenza artificiale così perfettamente in sintonia con i bisogni emotivi da diventare la relazione principale del protagonista, sostituendo completamente la connessione autentica. La sua assistente AI capiva i suoi stati d'animo, non si mostrava mai in disaccordo in modi che causassero veri attriti e forniva una conferma costante. Era la compagna perfetta, finché non è stato più sufficiente.

Ma il problema si estende oltre le relazioni individuali, fino a raggiungere conseguenze a livello sociale. Questo crea più di una semplice perdita di posti di lavoro: minaccia lo sviluppo intellettuale che rende possibile l'autonomia e la dignità umana. A differenza delle tecnologie precedenti che hanno creato nuove forme di occupazione, l'intelligenza artificiale potrebbe creare un mondo in cui l'occupazione diventa economicamente irrazionale, rendendo allo stesso tempo le persone meno capaci di creare alternative.

Le false soluzioni

La risposta utopica della tecnologia presuppone che l'intelligenza artificiale automatizzerà il lavoro di routine, liberandoci al contempo per concentrarci su compiti creativi e interpersonali di livello superiore. Ma cosa succederà quando le macchine diventeranno più brave anche nei compiti creativi? Stiamo già assistendo all'intelligenza artificiale che produce musica, arte visiva, programmazione e informazione che molti trovano avvincenti (o almeno "abbastanza buoni"). L'ipotesi che la creatività offra un rifugio permanente dall'automazione potrebbe rivelarsi tanto ingenua quanto l'ipotesi che i lavori manifatturieri fossero al sicuro dalla robotica negli anni '80.

Se le macchine possono sostituire sia il lavoro di routine che quello creativo, cosa ci resta? La falsa soluzione più allettante potrebbe essere il Reddito di Cittadinanza Universale (UBI) e programmi di welfare simili. Sembrano compassionevoli, in quanto garantiscono sicurezza materiale in un'epoca di dislocamento tecnologico. Ma quando comprendiamo l'intelligenza artificiale attraverso la prospettiva di Illich, l'UBI assume una dimensione più preoccupante.

Se l'intelligenza artificiale crea una debolezza intellettuale iatrogena – rendendo le persone meno capaci di ragionamento autonomo e di risoluzione dei problemi – allora il reddito di cittadinanza fornisce il complemento perfetto, eliminando l'incentivo economico a sviluppare tali capacità. I ​​cittadini diventano più dipendenti dallo Stato a scapito della propria autodeterminazione. Quando l'atrofia mentale si unisce alla delocalizzazione economica, i programmi di sostegno diventano non solo attraenti, ma apparentemente necessari. La combinazione crea quella che equivale a una popolazione gestita: intellettualmente dipendente da sistemi algoritmici per il pensiero ed economicamente legata ai sistemi istituzionali per la sopravvivenza. La mia preoccupazione non è l'intento compassionevole del reddito di cittadinanza, ma il fatto che la dipendenza economica combinata con l'esternalizzazione intellettuale possa rendere le persone più facilmente controllabili che potenziabili.

La storia offre precedenti di come i programmi di assistenza, per quanto ben intenzionati, possano svuotare le capacità individuali. Il sistema delle riserve prometteva di proteggere i nativi americani, smantellando sistematicamente l'autosufficienza tribale. Il rinnovamento urbano prometteva alloggi migliori, distruggendo invece reti comunitarie che si erano sostenute per generazioni.

Che il reddito di cittadinanza nasca da buone intenzioni o da un desiderio deliberato delle élite di mantenere i cittadini docili e indifesi, l'effetto strutturale rimane lo stesso: comunità più facili da controllare.

Una volta che le persone accettano la dipendenza economica e mentale, si apre la strada a forme di gestione più invasive, tra cui tecnologie che monitorano non solo il comportamento ma anche il pensiero stesso.

La risposta della sovranità e la libertà cognitiva

Il punto logico di questa architettura di dipendenza si estende oltre l'economia e la cognizione, fino alla coscienza stessa. Stiamo già assistendo alle prime fasi della convergenza biodigitale : tecnologie che non si limitano a monitorare i nostri comportamenti esterni, ma potenzialmente interagiscono con i nostri stessi processi biologici.

Al World Economic Forum del 2023, l'esperta di neurotecnologie Nita Farahany ha inquadrato la neurotecnologia di consumo in questo modo: "Ciò che pensi, ciò che senti, sono solo dati. Dati che, in grandi schemi, possono essere decodificati utilizzando l'intelligenza artificiale". "Fitbits per il tuo cervello" indossabili: la sorveglianza normalizzata come comodità.

Questa presentazione informale della sorveglianza neurale in questo influente incontro di leader mondiali e dirigenti aziendali illustra esattamente come queste tecnologie vengano normalizzate dall'autorità istituzionale piuttosto che dal consenso democratico. Quando persino i pensieri diventano "dati decodificabili", la posta in gioco diventa esistenziale.

Mentre la neurotecnologia consumer si concentra sull'adozione volontaria, la sorveglianza in situazioni di crisi adotta un approccio più diretto. In risposta alla recente sparatoria in una scuola di Minneapolis, Aaron Cohen, un veterano delle operazioni speciali dell'IDF, è apparso su Fox News per presentare un sistema di intelligenza artificiale che "esamina Internet 24 ore su 24, 7 giorni su 7, utilizzando un'ontologia di livello israeliano per estrarre un linguaggio di minaccia specifico e poi lo inoltra alle forze dell'ordine locali". Lo ha definito "il sistema di allerta precoce americano" – un Minority Report reale presentato come innovazione per la sicurezza pubblica.

Ciò segue lo stesso schema iatrogeno che abbiamo visto durante questo cambiamento tecnologico: la crisi crea vulnerabilità, vengono offerte soluzioni che promettono sicurezza creando al contempo dipendenza e le persone accettano una sorveglianza che avrebbero rifiutato in circostanze normali.

Proprio come i lockdown dovuti al Covid hanno creato le condizioni per l'adozione dell'intelligenza artificiale isolando le persone le une dalle altre, le sparatorie nelle scuole creano le condizioni per la sorveglianza pre-crimine sfruttando la paura per l'incolumità dei bambini. Chi non vorrebbe che le nostre scuole fossero sicure? La tecnologia promette protezione, ma erode la privacy e le libertà civili che rendono possibile una società libera.

Alcuni accoglieranno queste tecnologie come evoluzione. Altri le considereranno disumanizzazione. La maggior parte di noi dovrà imparare a destreggiarsi tra questi due estremi.

La risposta alla sovranità richiede lo sviluppo della capacità di mantenere una scelta consapevole su come interagire con i sistemi progettati per catturare la libertà personale. Questo approccio pratico è diventato più chiaro attraverso una conversazione con il mio più vecchio amico, un esperto di apprendimento automatico, che condivideva le mie preoccupazioni ma offriva consigli tattici: l'intelligenza artificiale renderà alcune persone cognitivamente più deboli, ma se si impara a usarla in modo strategico piuttosto che dipendente, può aumentare l'efficienza senza sostituire il giudizio. La sua intuizione chiave: alimentatela solo con informazioni che già conoscete: è così che imparerete i suoi pregiudizi anziché assorbirli. Questo significa:

Competenze di riconoscimento di pattern: sviluppare la capacità di identificare quando le tecnologie servono a scopi individuali e quando invece sottraggono indipendenza personale a beneficio istituzionale. In pratica, questo significa chiedersi perché una piattaforma sia gratuita (niente è gratuito, si paga con i propri dati), notare quando i suggerimenti dell'IA sembrano sospettosamente allineati con il consumo piuttosto che con gli obiettivi dichiarati e riconoscere quando i feed algoritmici amplificano l'indignazione anziché la comprensione. Prestare attenzione ai segnali di dipendenza algoritmica in sé stessi: incapacità di accettare l'incertezza senza consultare immediatamente l'IA, ricorrere all'assistenza algoritmica prima di provare a risolvere i problemi in modo indipendente o sentirsi ansiosi quando si è disconnessi dagli strumenti basati sull'IA.

Confini digitali: prendere decisioni consapevoli su quali comodità tecnologiche siano realmente utili ai propri obiettivi e quali creino sottomissione e sorveglianza. Ciò significa comprendere che tutto ciò che si condivide con i sistemi di intelligenza artificiale diventa dati di addestramento: i propri problemi, le proprie idee creative e le proprie intuizioni personali insegnano a questi sistemi a sostituire la creatività e il giudizio umani. Questo potrebbe essere semplice come difendere spazi sacri, rifiutando di permettere ai telefoni di interrompere le conversazioni a cena o di intervenire quando qualcuno si rivolge a Google per risolvere ogni disaccordo, piuttosto che lasciare che l'incertezza esista nelle conversazioni.

Reti comunitarie: nulla può sostituire la connessione autentica tra le persone: l'energia delle esibizioni dal vivo, le conversazioni spontanee al ristorante, l'esperienza immediata di essere presenti con gli altri. Costruire relazioni locali per testare la realtà e sostenere reciprocamente, senza dipendere da intermediari algoritmici, diventa essenziale quando le istituzioni possono creare consenso attraverso la curatela digitale. Questo significa coltivare amicizie in cui è possibile discutere idee senza l'ascolto degli algoritmi, sostenere le imprese locali che preservano il commercio su scala comunitaria e partecipare ad attività comunitarie che non richiedono mediazione digitale.

Invece di competere con le macchine o dipendere interamente da sistemi mediati dall'intelligenza artificiale, l'obiettivo è quello di utilizzare questi strumenti in modo strategico, sviluppando al contempo le qualità essenzialmente personali che non possono essere replicate algoritmicamente: saggezza acquisita attraverso l'esperienza diretta, giudizio che porta conseguenze reali, relazioni autentiche basate sulla condivisione del rischio e della fiducia.

Ciò che resta scarso

In un mondo di abbondanza cognitiva, cosa diventa prezioso? Non l'efficienza o la pura potenza di elaborazione, ma qualità che rimangono irriducibilmente umane:

Conseguenze e intenzionalità. Le macchine possono generare opzioni, ma le persone scelgono quale percorso intraprendere e convivono con i risultati. Immaginate un chirurgo che decide se operare, sapendo che perderà il sonno in caso di complicazioni e che metterà a repentaglio la propria reputazione in base all'esito.

Relazioni autentiche. Molti sono disposti a pagare cifre esorbitanti per un reale legame personale e una maggiore responsabilità, anche quando le alternative automatiche sono tecnicamente superiori. La differenza non è l'efficienza, ma la cura genuina: il vicino che aiuta perché condividete legami di comunità, non perché un algoritmo ottimizzato per il coinvolgimento lo ha suggerito.

Giudizio e cura locali radicati nell'esperienza reale. La risoluzione di problemi nel mondo reale richiede spesso di leggere tra le righe dei modelli comportamentali e delle dinamiche istituzionali. L'insegnante che nota uno studente normalmente impegnato che si ritira e indaga sulla situazione familiare. Quando i contenuti diventano infiniti, il discernimento diventa prezioso: l'amico che consiglia libri che cambiano la tua prospettiva perché conosce il tuo percorso intellettuale.

La scelta futura

Forse ogni generazione sente che il proprio tempo è di un'importanza unica – forse è semplicemente parte della nostra natura. Questa sembra più grande delle precedenti ondate di innovazione. Non stiamo solo cambiando il nostro modo di lavorare o comunicare – stiamo rischiando di perdere le capacità che ci rendono noi stessi in primo luogo. Per la prima volta, stiamo potenzialmente cambiando ciò che siamo.

Quando la cognizione stessa diventa merce, quando il pensiero viene esternalizzato, quando persino i nostri pensieri diventano dati da raccogliere, rischiamo di perdere capacità essenziali che nessuna generazione precedente ha mai rischiato di perdere. Immaginate una generazione che non riesce a sopportare l'incertezza per trenta secondi senza consultare un algoritmo. Che ricorre all'assistenza dell'intelligenza artificiale prima di tentare di risolvere autonomamente i problemi. Che si sente ansiosa quando è scollegata da questi strumenti. Non si tratta di speculazioni: sta già accadendo.

Stiamo affrontando una trasformazione che potrebbe democratizzare il nostro potenziale individuale o creare il sistema di controllo più sofisticato della storia. Le stesse forze che potrebbero liberarci dalla fatica potrebbero anche svuotare completamente l'autosufficienza.

Non si tratta di trovare soluzioni: le cerco come chiunque, soprattutto un genitore, che vede questa trasformazione arrivare e vuole aiutare i propri figli ad affrontarla consapevolmente piuttosto che inconsapevolmente. Cavalcare l'onda significa essere aperto a imparare da questi strumenti, pur sapendo di non poter contrastare le forze fondamentali che stanno rimodellando il nostro mondo. Ma posso provare a imparare a gestirle con intenzione, piuttosto che lasciarmene trasportare.

Se la partecipazione economica tradizionale diventa obsoleta, la questione diventa se sviluppare nuove forme di resilienza comunitaria e di creazione di valore, o se accettare una comoda dipendenza da sistemi progettati per gestirci piuttosto che per servirci. Non so quale strada intraprenderà la nostra specie, anche se credo che la decisione spetti ancora a noi.

Per i miei figli, il compito non sarà imparare a usare l'intelligenza artificiale: lo faranno. La sfida sarà imparare a far funzionare questi strumenti per noi, anziché subordinarci a loro, mantenendo la capacità di pensiero originale, relazioni autentiche e coraggio morale che nessun algoritmo può replicare. Nell'era dell'intelligenza artificiale, l'atto più radicale potrebbe essere diventare più autenticamente umani.

Il vero pericolo non è che l'intelligenza artificiale diventi più intelligente di noi. È che diventeremo più stupidi a causa sua.

L'onda è qui. Il mio compito di padre non è quello di proteggere i miei figli da essa, ma di insegnare loro a surfare senza perdersi.

Nessun commento:

► Potrebbe interessare anche: