da Michael T. Klare
Mentre gli esperti mettono in guardia sul rischio di estinzione umana, il Dipartimento della Difesa va avanti a tutta velocità...
Il recente dramma del consiglio di amministrazione sulla leadership di OpenAI, la startup tecnologica con sede a San Francisco dietro il popolarissimo programma per computer ChatGPT, è stato descritto come una lotta di potere aziendale, uno scontro di personalità guidato dall’ego e una disputa strategica sul rilascio di più varianti ChatGPT compatibili. Era tutto questo e altro ancora, ma in fondo rappresentava una lotta insolitamente aspra tra quei funzionari aziendali che favorivano la ricerca illimitata su forme avanzate di intelligenza artificiale (AI) e coloro che, temendo gli esiti potenzialmente catastrofici di tali sforzi, cercavano di rallentare il ritmo. dello sviluppo dell’IA .
Più o meno nello stesso periodo in cui questa battaglia epocale stava iniziando, una battaglia simile si stava svolgendo presso le Nazioni Unite a New York e negli uffici governativi a Washington, DC, sullo sviluppo di sistemi d’arma autonomi: navi droni, aerei e carri armati gestiti dall’intelligenza artificiale piuttosto che dagli esseri umani. In questo contesto, un’ampia coalizione di diplomatici e attivisti per i diritti umani ha cercato di imporre un divieto legalmente vincolante su tali dispositivi – chiamati “robot killer” dagli oppositori – mentre i funzionari dei Dipartimenti di Stato e di Difesa hanno sostenuto il loro rapido sviluppo.
In entrambi i tipi di controversie sono in discussione opinioni contrastanti sull’affidabilità delle forme avanzate di intelligenza artificiale, in particolare i “grandi modelli linguistici” utilizzati nei sistemi di “intelligenza artificiale generativa” come ChatGPT. (Programmi come questi sono chiamati “generativi” perché possono creare testo o immagini di qualità umana sulla base di un’analisi statistica dei dati raccolti da Internet). Coloro che sono a favore dello sviluppo e dell’applicazione dell’IA avanzata – sia nel settore privato che in quello militare – sostengono che tali sistemi possono essere sviluppati in modo sicuro; coloro che mettono in guardia contro tale azione affermano che non è possibile, almeno non senza garanzie sostanziali.
Visualizzazione post con etichetta Michael T. Klare. Mostra tutti i post
Visualizzazione post con etichetta Michael T. Klare. Mostra tutti i post
lunedì 11 dicembre 2023
Iscriviti a:
Post (Atom)
► Potrebbe interessare anche:
-
L'Europa approva nuovi vaccini a RNA "autoreplicanti" che "si diffondono alle persone non vaccinate"thepeoplesvoice L'Unione Europea ha autorizzato Big Pharma a vendere vaccini a RNA "autoreplicanti", in grado di trasmettersi ...
-
Di Benjamin Fulford Oggi è il 6 gennaio 2025 e ci sarà una resa dei conti. Il Congresso si riunirà per una sessione costituzionalmente obbl...
-
Lucas Leiroz Molti degli amici di Zelensky, insieme allo stesso leader ucraino, si impegnano in rituali settari crudeli e disumani. Questi r...
-
Di Philippa Jane Winkler L'ente benefico potrebbe essere ritenuto responsabile per i potenziali danni causati dai vaccini e dalla ...
-
Lo ha affermato la portavoce del ministero degli Esteri russo, Maria Zakharova. © Sputnik /Grigorij Sysoev Il ministro degli Esteri tedesco ...
-
Di Jim Hof Nelle ultime settimane, una misteriosa nebbia dall'odore chimico caratteristico ha avvolto diversi stati degli Stati Uniti, ...
-
I sei amici erano partiti dal Belgio per Milano per trascorrere il Capodanno, ma il loro viaggio si è presto trasformato in un incubo. DI T...