Mentre gli esperti mettono in guardia sul rischio di estinzione umana, il Dipartimento della Difesa va avanti a tutta velocità...
Il recente dramma del consiglio di amministrazione sulla leadership di OpenAI, la startup tecnologica con sede a San Francisco dietro il popolarissimo programma per computer ChatGPT, è stato descritto come una lotta di potere aziendale, uno scontro di personalità guidato dall’ego e una disputa strategica sul rilascio di più varianti ChatGPT compatibili. Era tutto questo e altro ancora, ma in fondo rappresentava una lotta insolitamente aspra tra quei funzionari aziendali che favorivano la ricerca illimitata su forme avanzate di intelligenza artificiale (AI) e coloro che, temendo gli esiti potenzialmente catastrofici di tali sforzi, cercavano di rallentare il ritmo. dello sviluppo dell’IA .
Più o meno nello stesso periodo in cui questa battaglia epocale stava iniziando, una battaglia simile si stava svolgendo presso le Nazioni Unite a New York e negli uffici governativi a Washington, DC, sullo sviluppo di sistemi d’arma autonomi: navi droni, aerei e carri armati gestiti dall’intelligenza artificiale piuttosto che dagli esseri umani. In questo contesto, un’ampia coalizione di diplomatici e attivisti per i diritti umani ha cercato di imporre un divieto legalmente vincolante su tali dispositivi – chiamati “robot killer” dagli oppositori – mentre i funzionari dei Dipartimenti di Stato e di Difesa hanno sostenuto il loro rapido sviluppo.
In entrambi i tipi di controversie sono in discussione opinioni contrastanti sull’affidabilità delle forme avanzate di intelligenza artificiale, in particolare i “grandi modelli linguistici” utilizzati nei sistemi di “intelligenza artificiale generativa” come ChatGPT. (Programmi come questi sono chiamati “generativi” perché possono creare testo o immagini di qualità umana sulla base di un’analisi statistica dei dati raccolti da Internet). Coloro che sono a favore dello sviluppo e dell’applicazione dell’IA avanzata – sia nel settore privato che in quello militare – sostengono che tali sistemi possono essere sviluppati in modo sicuro; coloro che mettono in guardia contro tale azione affermano che non è possibile, almeno non senza garanzie sostanziali.
Senza entrare nei dettagli del dramma OpenAI – che per il momento si è concluso il 21 novembre con la nomina di nuovi membri del consiglio e il ritorno del mago dell’intelligenza artificiale Sam Altman come amministratore delegato dopo essere stato licenziato cinque giorni prima – è evidente che La crisi è stata innescata dalle preoccupazioni tra i membri del consiglio di amministrazione originario che Altman e il suo staff stessero virando troppo nella direzione di un rapido sviluppo dell’intelligenza artificiale, nonostante l’ impegno a esercitare maggiore cautela.
Secondo Altman e molti dei suoi colleghi, i tecnici umani sono sul punto di creare una “IA generale” o “superintelligenza”, programmi di intelligenza artificiale così potenti da poter duplicare tutti gli aspetti della cognizione umana e programmarsi da soli, rendendo superflua la programmazione umana. Tali sistemi, si sostiene, saranno in grado di curare la maggior parte delle malattie umane e di compiere altri miracoli benefici, ma anche, avvertono i detrattori, elimineranno la maggior parte dei posti di lavoro umani e potrebbero, alla fine, decidere di eliminare del tutto gli esseri umani.
“In termini sia di potenziali vantaggi che di svantaggi, la superintelligenza sarà più potente di altre tecnologie con cui l’umanità ha dovuto confrontarsi in passato”, hanno scritto Altman e i suoi migliori luogotenenti a maggio. “Possiamo avere un futuro notevolmente più prospero; ma dobbiamo gestire il rischio per arrivarci”.
Per Altman, come per molti altri nel campo dell’intelligenza artificiale, questo rischio ha una dimensione “esistenziale”, che comporta il possibile collasso della civiltà umana e, all’estremo limite, l’estinzione umana. "Penso che se questa tecnologia va storta, può andare molto storto", ha detto in un'audizione al Senato il 16 maggio. Altman ha anche firmato una lettera aperta rilasciata dal Center for AI Safety il 30 maggio avvertendo del possibile "rischio di estinzione da parte di intelligenza artificiale." Mitigare tale rischio, afferma la lettera, “dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare”.
Tuttavia, Altman e altri alti funzionari dell’IA ritengono che la superintelligenza possa e debba essere perseguita, purché lungo il percorso vengano installate adeguate garanzie. “Crediamo che i benefici degli strumenti che abbiamo implementato finora superino di gran lunga i rischi, ma garantire la loro sicurezza è vitale per il nostro lavoro”, ha detto alla sottocommissione del Senato per la privacy, la tecnologia e la legge.
Washington promuove l’uso “responsabile” dell’intelligenza artificiale in guerra
Un calcolo simile riguardo allo sfruttamento dell’intelligenza artificiale avanzata governa la prospettiva degli alti funzionari dei Dipartimenti di Stato e di Difesa, i quali sostengono che l’intelligenza artificiale può e deve essere utilizzata per far funzionare i futuri sistemi d’arma, purché ciò avvenga in modo " maniera “responsabile”.
“Non possiamo prevedere come si evolveranno le tecnologie dell’intelligenza artificiale o di cosa potrebbero essere capaci tra un anno o cinque anni”, ha affermato l’Amb. Bonnie Jenkins, sottosegretario di Stato per il controllo degli armamenti e la non proliferazione, ha dichiarato in una presentazione alle Nazioni Unite il 13 novembre. Tuttavia, ha osservato, gli Stati Uniti sono determinati a “mettere in atto le politiche necessarie e a sviluppare le capacità tecniche per consentire lo sviluppo e l’uso responsabile [dell’intelligenza artificiale da parte dei militari], indipendentemente dai progressi tecnologici”.
Quel giorno Jenkins era alle Nazioni Unite per svelare una “Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia”, un appello ispirato dagli Stati Uniti per restrizioni volontarie sullo sviluppo e l’impiego di armi autonome abilitate all’intelligenza artificiale. La dichiarazione afferma , tra le altre cose, che “gli Stati dovrebbero garantire che la sicurezza, la protezione e l’efficacia delle capacità militari di IA siano soggette a test adeguati e rigorosi” e che “gli Stati dovrebbero implementare adeguate garanzie per mitigare i rischi di guasti nell’IA militare”. capacità, come la capacità di… disattivare i sistemi distribuiti, quando tali sistemi dimostrano un comportamento non intenzionale”.
Niente di tutto ciò, però, costituisce un obbligo giuridicamente vincolante per gli Stati che firmano la dichiarazione; piuttosto, implica semplicemente la promessa di rispettare una serie di migliori pratiche, senza l’obbligo di dimostrare il rispetto di tali misure o il rischio di sanzioni in caso di mancata conformità.
Sebbene diverse dozzine di paesi – per lo più stretti alleati degli Stati Uniti – abbiano firmato la dichiarazione, molte altre nazioni, tra cui Austria, Brasile, Cile, Messico, Nuova Zelanda e Spagna, insistono sul fatto che il rispetto volontario di una serie di standard stabiliti dagli Stati Uniti è insufficiente per proteggersi dai pericoli posti dallo spiegamento di armi abilitate all’intelligenza artificiale. Cercano invece uno strumento giuridicamente vincolante che stabilisca limiti rigorosi all’uso di tali sistemi o li vieti del tutto. Per questi attori, il rischio che tali armi “diventino canaglia” e conducano attacchi non autorizzati contro i civili è semplicemente troppo grande per consentirne l’uso in combattimento.
“L’umanità sta per varcare una soglia di profonda importanza quando la decisione sulla vita e sulla morte non sarà più presa dagli esseri umani ma sulla base di algoritmi preprogrammati. Ciò solleva questioni etiche fondamentali”, ha affermato l'Amb. Alexander Kmentt, capo negoziatore austriaco per il disarmo, il controllo degli armamenti e la non proliferazione, ha detto a The Nation .
Per anni, l’Austria e un gran numero di paesi dell’America Latina hanno cercato di imporre un divieto su tali armi sotto l’egida della Convenzione su alcune armi convenzionali (CCW), un trattato delle Nazioni Unite del 1980 che mira a limitare o vietare le armi ritenute causa di sofferenze inutili. ai combattenti o colpire indiscriminatamente i civili. Questi paesi, insieme al Comitato Internazionale della Croce Rossa e ad altre organizzazioni non governative, sostengono che le armi completamente autonome rientrano in questa categoria poiché si dimostreranno incapaci di distinguere tra combattenti e civili nel vivo della battaglia, come richiesto dal diritto internazionale. . Sebbene la maggioranza dei partiti della CCW sembri condividere questo punto di vista e favorire controlli rigidi sulle armi autonome, le decisioni degli stati firmatari vengono prese per consenso e una manciata di paesi, tra cui Israele, Russia e Stati Uniti, hanno usato il loro potere di veto bloccare l'adozione di qualsiasi misura del genere . Ciò, a sua volta, ha portato i sostenitori della regolamentazione a rivolgersi all’Assemblea generale delle Nazioni Unite – dove le decisioni vengono prese a maggioranza anziché con il consenso – come arena per futuri progressi sulla questione.
Il 12 ottobre, per la prima volta in assoluto, il Primo Comitato dell’Assemblea Generale – responsabile per la pace, la sicurezza internazionale e il disarmo – ha affrontato i pericoli posti dalle armi autonome, votando con un’ampia maggioranza – 164 voti favorevoli, 5 contrari (con 8 astensioni) – per incaricare il segretario generale di condurre uno studio approfondito della questione. Lo studio, che sarà completato in tempo per la prossima sessione dell’Assemblea Generale (nell’autunno del 2024), esaminerà le “sfide e le preoccupazioni” che tali armi sollevano “dal punto di vista umanitario, legale, di sicurezza, tecnologico ed etico e sulle ruolo degli esseri umani nell’uso della forza”.
Sebbene la misura delle Nazioni Unite non imponga alcuna limitazione vincolante allo sviluppo o all’uso di sistemi d’arma autonomi, pone le basi per la futura adozione di tali misure, identificando una serie di preoccupazioni sul loro dispiegamento e insistendo affinché il Segretario generale, quando si conduce il rapporto richiesto, indagare su tali pericoli in dettaglio, anche chiedendo il parere e le competenze di scienziati e organizzazioni della società civile.
“L’obiettivo è ovviamente quello di andare avanti nella regolamentazione dei sistemi d’arma autonomi”, ha indicato l’ambasciatore Kmentt. “La risoluzione chiarisce che la stragrande maggioranza degli Stati vuole affrontare questo problema con urgenza”.
Ciò che accadrà alla riunione dell’Assemblea Generale del prossimo anno non può essere previsto, ma se Kmentt ha ragione, possiamo aspettarci un dibattito internazionale molto più vivace sull’opportunità di consentire lo spiegamento di sistemi d’arma abilitati all’intelligenza artificiale, indipendentemente dal fatto che i partecipanti abbiano o meno accettato l’iniziativa. misure volontarie sostenute dagli Stati Uniti.
Al Pentagono si va avanti a tutta velocità
Per i funzionari del Dipartimento della Difesa, tuttavia, la questione è in gran parte risolta: gli Stati Uniti procederanno con il rapido sviluppo e dispiegamento di numerosi tipi di sistemi d’arma autonomi abilitati all’intelligenza artificiale. Ciò è stato reso evidente il 28 agosto, con l’annuncio dell’iniziativa “Replicator” da parte del vice segretario alla Difesa Kathleen Hicks.
Rilevando che gli Stati Uniti devono prepararsi per una possibile guerra con l'esercito cinese, l'Esercito popolare di liberazione (PLA), in un futuro non troppo lontano, e che le forze statunitensi non possono eguagliare le scorte di armi del PLA su una base articolo per articolo (carro per carro armato, nave per nave, ecc.), Hicks ha sostenuto che gli Stati Uniti devono essere pronti a superare la superiorità della Cina nelle misure convenzionali di potenza – la sua “massa” militare – dispiegando “una moltitudine di migliaia” di armi autonome .
"Per stare al passo, creeremo un nuovo stato dell'arte, proprio come ha fatto l'America in passato, sfruttando sistemi autonomi attrattibili [cioè usa e getta] in tutti i domini", ha detto ai dirigenti aziendali in una riunione della National Defense Industrial Association. a Washington. "Contrapporremo la massa del PLA con la nostra massa, ma la nostra sarà più difficile da pianificare, più difficile da colpire, più difficile da battere."
In un discorso successivo , pronunciato il 6 settembre, Hicks ha fornito (leggermente) maggiori dettagli su quelli che ha definito sistemi d’arma autonomi attritabili in tutti i domini (ADA2). “Immaginate pod distribuiti di sistemi ADA2 semoventi a galla… pieni di sensori in abbondanza…. Immaginate flotte di sistemi ADA2 a terra che forniscono un nuovo supporto logistico, esplorando in anticipo per mantenere le truppe al sicuro…. Immaginate stormi di sistemi [aerei] ADA2, che volano a tutti i tipi di altitudini, svolgendo una serie di missioni, basandosi su ciò che abbiamo visto in Ucraina."
Secondo le linee guida ufficiali, Hicks ha assicurato al suo pubblico che tutti questi sistemi “saranno sviluppati e messi in campo in linea con il nostro approccio responsabile ed etico all’intelligenza artificiale e ai sistemi autonomi”. Ma a parte quel breve cenno alla sicurezza, tutta l’enfasi nei suoi discorsi è stata posta sull’eliminazione degli ostacoli burocratici per accelerare lo sviluppo e l’impiego di armi autonome. “Se [questi colli di bottiglia] non vengono affrontati”, ha dichiarato il 28 agosto, “i nostri ingranaggi continueranno a funzionare troppo lentamente e i nostri motori di innovazione non funzioneranno alla velocità e alla scala di cui abbiamo bisogno. E questo non lo possiamo sopportare”.
E così, i poteri costituiti, sia nella Silicon Valley che a Washington, hanno preso la decisione di procedere con lo sviluppo e l’utilizzo di versioni ancora più avanzate dell’intelligenza artificiale nonostante gli avvertimenti di scienziati e diplomatici che la sicurezza di questi programmi non può essere garantita e che il loro uso improprio potrebbe avere conseguenze catastrofiche. A meno che non venga compiuto uno sforzo maggiore per rallentare questi sforzi, potremmo scoprire quali potrebbero essere le conseguenze di tali conseguenze.
Nessun commento:
Posta un commento