Visualizzazione post con etichetta Intelligenza Artificiale. Mostra tutti i post
Visualizzazione post con etichetta Intelligenza Artificiale. Mostra tutti i post

giovedì 11 aprile 2024

Il Giappone dichiara ufficialmente l’intelligenza artificiale “una minaccia esistenziale per l’umanità”

Sean Adl-Tabatabai 

Il Giappone ha lanciato un avvertimento urgente all’umanità sulla “minaccia esistenziale” che l’intelligenza artificiale rappresenta per il futuro della razza umana.


Nippon Telegraph and Telephone (NTT) e Yomiuri Shimbun Group Holdings, la più grande compagnia di telecomunicazioni del paese e il più grande giornale del paese, hanno pubblicato un manifesto sull’intelligenza artificiale in cui delinea come la società potrebbe crollare totalmente se l’intelligenza artificiale non fosse dominata.

Modernity.news riporta: Ha avvertito che se la legislazione non viene approvata rapidamente nei principali paesi del mondo, l’intelligenza artificiale minaccia di decimare la democrazia e provocare disordini sociali diffusi.

mercoledì 3 aprile 2024

Sistemi di intelligenza artificiale che manipolano il sistema nervoso umano. Pensieri, emozioni, percezioni e deroga ai diritti umani fondamentali

MICHEL CHOSSUDOVSKY E MOJMÍR BABÁČEK

Dovrebbe essere bandito definitivamente. Lettera aperta al Parlamento europeo

Di seguito è riportato un testo importante dell'autore ospite Mojmír Babáček relativo ai sistemi di intelligenza artificiale e alla manipolazione del sistema nervoso umano.

Il 9 dicembre 2023, il Parlamento europeo ha pubblicato un comunicato stampa, in cui affermava di aver raggiunto un accordo politico con il Consiglio dell’Unione europea “su un disegno di legge per garantire che l’intelligenza artificiale in Europa sia sicura, rispetti i diritti fondamentali e la democrazia”. Il futuro disegno di legge dovrebbe vietare “i sistemi di intelligenza artificiale che manipolano il comportamento umano per eludere il loro libero arbitrio”.


Secondo il comunicato stampa i deputati “hanno concordato” anche “obblighi chiari” rispetto ai “sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori” (vedi questo ). Nessuno e nessun luogo ha approfondito questi temi. In una risposta alla petizione di numerosi rappresentanti e membri delle organizzazioni mondiali per i diritti umani, il presidente della commissione per le petizioni del Parlamento europeo, Dolors Montserrat , ha citato il documento preparatorio del PE, che affermava:

venerdì 8 marzo 2024

L’umanità può sopravvivere all’intelligenza artificiale?

Illustrazione di Ricardo Santos
DI GARRISON LOVELY

Con lo sviluppo dell’intelligenza artificiale che avanza a grande velocità, alcuni degli uomini più ricchi del mondo potrebbero decidere il destino dell’umanità in questo momento.


Il cofondatore di Google Larry Page ritiene che l’intelligenza artificiale superintelligente sia “solo il prossimo passo nell’evoluzione”. In effetti, Page, che possiede circa 120 miliardi di dollari, avrebbe sostenuto che gli sforzi per prevenire l’estinzione guidata dall’intelligenza artificiale e proteggere la coscienza umana sono “specisti” e “ una sciocchezza sentimentale ”.

A luglio, l’ex scienziato senior di Google DeepMindRichard Sutton – uno dei pionieri dell’apprendimento per rinforzo, un importante sottocampo dell’intelligenza artificialeha affermato che la tecnologia “potrebbe spostarci dall’esistenza” e che “non dovremmo resistere alla successione”. In un discorso del 2015 , Sutton ha detto, supponiamo che “tutto fallisca” e che l’intelligenza artificiale “ci uccida tutti”; ha chiesto: "È così grave che gli esseri umani non siano la forma finale di vita intelligente nell'universo?"

sabato 3 febbraio 2024

Dimentica la bolla AI. Ne emerge uno nuovo mentre le aziende spaziali si preparano per il launchpad dell’IPO

Di zerohedge

Il primo aereo spaziale commerciale al mondo è entrato nella fase di test finale prima del suo primo volo nel 2024 a dicembre. Ora, la società dietro lo spazioplano di classe orbitale, Sierra Space Corp., sta gettando le basi per un’offerta pubblica iniziale e possibili acquisizioni.


Giovedì, l'amministratore delegato di Sierra Space, Tom Vice, ha parlato con Bloomberg dei piani di Sierra di sfruttare i mercati pubblici. Vice ha affermato che i tempi dell'IPO sono incerti, ma farà il salto "quando sembrerà che il mercato ci darà il giusto credito per la valutazione".

"Vogliamo l'accesso ai mercati pubblici", ha detto il dirigente, aggiungendo: "Abbiamo lavorato per un anno e mezzo per assicurarci di essere pronti come società pubblica".

Quando Powell inizierà a tagliare i tassi di interesse?

Vice ha anche detto "componenti aggiuntivi inorganici" e "attività di consolidamento": questo è un modo fantasioso in cui il CEO parla di fusioni e acquisizioni.

venerdì 26 gennaio 2024

SAP taglia 8mila dipendenti con l’intelligenza artificiale, balzo in Borsa

La società di software SAP
Di ilsole24ore

L’azienda tedesca di programmi per aziende si affiderà all’Intelligenza Artificiale anche per decidere le «efficienze»

SAP registra il rialzo più forte in Borsa da più di tre anni dopo che la società di software tedesca ha dichiarato di pianificare una ristrutturazione che impatterà su circa 8.000 posti di lavoro e che porterà a concentrarsi sull’intelligenza artificiale. Come conseguenza del riassetto, la società prevede che l’utile operativo salirà a circa 10 miliardi di euro (10,9 miliardi di dollari) l’anno prossimo.

sabato 20 gennaio 2024

Riepilogo del WEF: gli ID digitali possono tracciare i non vaccinati, l’intelligenza artificiale può accelerare lo sviluppo di nuovi vaccini

Di Michael Nevradakis, Ph.D.

L’incontro annuale del World Economic Forum si è concluso questa settimana con richieste di identità digitali, rapido sviluppo di nuovi vaccini, maggiori collaborazioni con media aziendali come il New York Times e una diffusa accettazione e proliferazione dell’intelligenza artificiale in tutti i settori della società. compresa la sanità e l’istruzione.


La minaccia di una nuova pandemia e la cosiddetta “ disinformazione ”. Il futuro della democrazia. L’impatto futuro dell’intelligenza artificiale (AI) nella società. L’“agenda verde”.

Sono solo alcuni dei temi all'ordine del giorno del meeting annuale del World Economic Forum (WEF) che si è concluso oggi a Davos, in Svizzera.

Alcuni dei punti salienti dell'incontro di quest'anno includevano avvertimenti su come una " malattia X " ancora sconosciuta potrebbe causare la prossima pandemia, discussioni su come l'intelligenza artificiale potrebbe portare al rapido sviluppo di nuovi vaccini e discorsi su come l'intelligenza artificiale potrebbe cadere vittima di – o filtrare – la cosiddetta “disinformazione” e “disinformazione”.
"Non vogliamo aspettare un anno prima di avere il vaccino"
Gli avvertimenti sono stati accompagnati da prospettive più ottimistiche – dal punto di vista dei partecipanti all’incontro – sul ruolo che l’intelligenza artificiale potrebbe svolgere nell’affrontare future pandemie, ad esempio attraverso il rapido sviluppo di nuovi vaccini.

venerdì 19 gennaio 2024

Il rischio più alto è la disinformazione in vista delle elezioni: studio di Davos


insiderpaper

La disinformazione e la disinformazione guidate dall’intelligenza artificiale in vista delle elezioni nelle principali economie sono i maggiori rischi globali quest’anno e il prossimo, ha avvertito mercoledì il World Economic Forum 


Il Global Risks Report 2024 dell’organizzazione, pubblicato prima dell’incontro annuale delle élite politiche e imprenditoriali che si terrà a Davos la prossima settimana, mette in guardia anche dalle minacce poste dal cambiamento climatico, dalla crisi del costo della vita e dalla guerra.
“La disinformazione e la disinformazione rappresentano i maggiori rischi a breve termine, mentre le condizioni meteorologiche estreme e i cambiamenti critici ai sistemi terrestri rappresentano la maggiore preoccupazione a lungo termine”, afferma il rapporto.
“Le preoccupazioni per una persistente crisi del costo della vita e i rischi intrecciati di disinformazione e disinformazione guidata dall’intelligenza artificiale e la polarizzazione sociale hanno dominato le prospettive dei rischi per il 2024”, ha aggiunto.

venerdì 12 gennaio 2024

L’intelligenza artificiale rappresenta una minaccia per il nostro pianeta, ma non quella che potresti pensare

Di Sanjeev Kumar , giornalista con sede a Shimla (India) specializzato in ambiente, cambiamento climatico e politica.

L’energia necessaria per far funzionare chip ad alta elaborazione e sistemi di raffreddamento rende l’intelligenza artificiale come il petrolio: redditizia per gli esseri umani ma con un costo ambientale


Anche se l’umanità abbraccia con entusiasmo l’intelligenza artificiale nonostante i dubbi sul fronte accademico e della sicurezza, la fame di energia dell’IA e la sua impronta di carbonio stanno causando crescente preoccupazione. L’intelligenza artificiale viene spesso paragonata ai combustibili fossili. Il petrolio, una volta estratto e raffinato, è un bene redditizio; e come il petrolio, l’intelligenza artificiale ha un grande impatto ambientale che ha sorpreso molti.

Un articolo del MIT Technology Review afferma che il ciclo di vita per l’addestramento di comuni modelli di intelligenza artificiale di grandi dimensioni ha un impatto ambientale significativo, riportando che “l’intero processo può emettere più di 626.000 libbre di anidride carbonica equivalente, quasi cinque volte le emissioni durante la vita dell’americano medio”. automobile (e ciò include la fabbricazione dell’auto stessa).”

venerdì 5 gennaio 2024

Nonostante le proteste dell’industria e degli attivisti, i ministri stanno portando un nuovo disegno di legge in parlamento.


La Gran Bretagna ha alcune delle leggi sulla sorveglianza più severe d’Europa. Ora vuole di più
La nuova legislazione sta innescando un nuovo allarme sia tra i dirigenti del settore che tra gli attivisti per la privacy | Scott Barbour/Getty Images

DI LAURIE CLARKE

Doppiato dall'intelligenza artificiale.

LONDRA – Il Regno Unito dispone già di alcune delle leggi sulla sorveglianza di più ampia portata nel mondo democratico. Ora si sta affrettando a rafforzarli ulteriormente e le aziende tecnologiche sono spaventate.

Il governo britannico vuole basarsi sul suo storico Investigatory Powers Act, un controverso atto legislativo soprannominato dai critici la “carta del ficcanaso” quando introdotto nel 2016.

Quella legge – introdotta sulla scia delle rivelazioni dell’informatore Edward Snowden sulla sorveglianza di massa da parte dello stato – tentava di introdurre maggiore responsabilità nel vasto regime di spionaggio delle agenzie di intelligence del Regno Unito formalizzando ampi poteri per intercettare e-mail, messaggi, cronologia web e altro ancora.

venerdì 15 dicembre 2023

Il programma israeliano di targeting dell'intelligenza artificiale chiamato “Gospel” ha creato una “fabbrica di assassini” a Gaza, avvertono gli esperti

di Ethan Huff 
Per aiutare presumibilmente a ridurre al minimo il numero di vittime civili a Gaza, Israele ha dispiegato un’arma di intelligenza artificiale (AI), ironicamente chiamata “Gospel”, che presumibilmente utilizza robot per selezionare obiettivi militari a Gaza a un ritmo rapido. Gli esperti avvertono , tuttavia, che il Vangelo di Israele è una menzogna e che il suo sistema di intelligenza artificiale ha effettivamente creato una “fabbrica di assassini” nel territorio palestinese.

Secondo una dichiarazione pubblicata sul sito web delle Forze di Difesa Israeliane (IDF), l'esercito israeliano utilizza il Gospel per "produrre obiettivi a un ritmo rapido". Si afferma inoltre che Gospel fa ciò utilizzando "l'estrazione rapida e automatica dell'intelligence con l'obiettivo di una corrispondenza completa tra la raccomandazione della macchina e l'identificazione effettuata da una persona".

Nei passati attacchi a Gaza, quando Israele non aveva il Vangelo a sua disposizione, si dice che l’IDF fosse a corto di obiettivi da colpire. Con il Vangelo in atto, Israele è ora in grado di distruggere molti più obiettivi a un ritmo molto più rapido, consentendo allo Stato ebraico di raggiungere i suoi obiettivi di annientamento più rapidamente che mai.

lunedì 11 dicembre 2023

La corsa del Pentagono a schierare armi abilitate all’intelligenza artificiale ci ucciderà tutti

da Michael T. Klare
Mentre gli esperti mettono in guardia sul rischio di estinzione umana, il Dipartimento della Difesa va avanti a tutta velocità...

Il recente dramma del consiglio di amministrazione sulla leadership di OpenAI, la startup tecnologica con sede a San Francisco dietro il popolarissimo programma per computer ChatGPT, è stato descritto come una lotta di potere aziendale, uno scontro di personalità guidato dall’ego e una disputa strategica sul rilascio di più varianti ChatGPT compatibili. Era tutto questo e altro ancora, ma in fondo rappresentava una lotta insolitamente aspra tra quei funzionari aziendali che favorivano la ricerca illimitata su forme avanzate di intelligenza artificiale (AI) e coloro che, temendo gli esiti potenzialmente catastrofici di tali sforzi, cercavano di rallentare il ritmo. dello sviluppo dell’IA .

Più o meno nello stesso periodo in cui questa battaglia epocale stava iniziando, una battaglia simile si stava svolgendo presso le Nazioni Unite a New York e negli uffici governativi a Washington, DC, sullo sviluppo di sistemi d’arma autonomi: navi droni, aerei e carri armati gestiti dall’intelligenza artificiale piuttosto che dagli esseri umani. In questo contesto, un’ampia coalizione di diplomatici e attivisti per i diritti umani ha cercato di imporre un divieto legalmente vincolante su tali dispositivi – chiamati “robot killer” dagli oppositori – mentre i funzionari dei Dipartimenti di Stato e di Difesa hanno sostenuto il loro rapido sviluppo.

In entrambi i tipi di controversie sono in discussione opinioni contrastanti sull’affidabilità delle forme avanzate di intelligenza artificiale, in particolare i “grandi modelli linguistici” utilizzati nei sistemi di “intelligenza artificiale generativa” come ChatGPT. (Programmi come questi sono chiamati “generativi” perché possono creare testo o immagini di qualità umana sulla base di un’analisi statistica dei dati raccolti da Internet). Coloro che sono a favore dello sviluppo e dell’applicazione dell’IA avanzata – sia nel settore privato che in quello militare – sostengono che tali sistemi possono essere sviluppati in modo sicuro; coloro che mettono in guardia contro tale azione affermano che non è possibile, almeno non senza garanzie sostanziali.

venerdì 24 novembre 2023

Il licenziamento di Sam Altman

Sam Altman 
Il licenziamento di Sam Altman da parte del consiglio di amministrazione di OpenAI per la svolta di "Q-Star" è stato visto come una minaccia per l'umanità? Il mistero che circonda il breve licenziamento del CEO di OpenAI Sam Altman lo scorso venerdì, che da allora è stato reintegrato , potrebbe ruotare attorno a un rapporto Reuters che suggerisce che la rimozione di Altman sia dovuta a una svolta nell'intelligenza artificiale generale (AGI), che potrebbe minacciare l'umanità.

Nei giorni precedenti la mandata in esilio di Altman, diversi ricercatori dello staff scrissero una lettera al consiglio su una svolta significativa - chiamata Q* e pronunciata Q-Star - che permise al modello di intelligenza artificiale di "superare gli esseri umani nei compiti economicamente più importanti".

Fonti di Reuters hanno affermato che il traguardo dell'intelligenza artificiale è stato uno dei fattori significativi che hanno portato all'improvviso licenziamento di Altman da parte del consiglio venerdì scorso. Un’altra preoccupazione era commercializzare il modello avanzato di intelligenza artificiale senza comprenderne le conseguenze socioeconomiche.

La fonte ha affermato che il modello potrebbe risolvere problemi matematici, ma solo "a livello di studenti delle scuole elementari, il superamento di tali test ha reso i ricercatori molto ottimisti riguardo al futuro successo di Q*".

giovedì 16 novembre 2023

La corsa all'intelligenza artificiale è iniziata. Chi è il principale concorrente degli Stati Uniti?


Di BR Srikanth,  giornalista veterano di Bangalore che si occupa di spazio e difesa.

La Silicon Valley indiana ha un solido pool di talenti e una vivace cultura delle startup, ma per espandersi in modo massiccio ha bisogno di grandi investimenti e di un’enorme potenza di calcolo

L'intelligenza artificiale, o AI, che si riferisce alla capacità di computer o macchine di eseguire compiti che richiedono l'intelligenza umana, è comune oggi, a livello globale e a Bangalore in India.

Secondo TIDE della Harvard Business Review, la città ha di fatto superato il resto dell’India e si è fatta strada tra i primi cinque punti caldi dell’intelligenza artificiale nel mondo . Nuova Delhi e Hyderabad occupano rispettivamente la 18a e la 19a posizione. I quattro punti caldi principali sono San Francisco, New York, Boston e Seattle.

Non è solo la Harvard Business Review. Anche la Brookings Metro Review e uno studio del Wuzhen Institute hanno previsto Bangalore come il prossimo hub di intelligenza artificiale. Google e Apple sono tra i giganti globali che hanno acquisito startup locali focalizzate sull’intelligenza artificiale. E Microsoft e IBM hanno creato strutture di ricerca e sviluppo (R&S) per prodotti e servizi di intelligenza artificiale.

giovedì 13 luglio 2023

"Rubare segretamente tutto": Intentata una causa legale a Google per la nuova politica sulla privacy per lo scraping dei dati dell'IA

Google ha intentato una causa legale per lo scraping dei dati dell'IA
Scritto da Savannah Fortis
zerohedge.com/technology
Una settimana dopo che Google ha aggiornato la sua politica sulla privacy per consentire lo scraping dei dati per scopi di formazione sull'intelligenza artificiale, la società deve affrontare un'azione legale collettiva...

Google sta ora affrontando una causa in seguito al suo recente aggiornamento della politica sulla privacy che accusa il gigante della tecnologia di abusare di grandi quantità di dati, incluso materiale protetto da copyright, nella formazione sull'intelligenza artificiale (AI).

L'azione legale collettiva è stata intentata l'11 luglio da otto persone che affermano di rappresentare "milioni di membri della classe" - utenti di Internet e detentori di copyright - che hanno visto violare la loro privacy e i loro diritti di proprietà alla luce dei recenti aggiornamenti di Google alla sua politica sulla privacy.

Nella sua dichiarazione di apertura, i querelanti accusano Google di "raccogliere dati in segreto" per costruire i suoi prodotti AI senza consenso.
"Recentemente è emerso che Google ha rubato segretamente tutto ciò che è stato creato e condiviso su Internet da centinaia di milioni di americani".
Le modifiche alla politica sulla privacy di Google ora gli consentono di prendere dati pubblicamente disponibili per scopi di formazione sull'intelligenza artificiale (AI).

La causa sottolinea che la decisione di Google non solo viola i diritti, ma le conferisce un "vantaggio sleale" rispetto ai suoi concorrenti, che ottengono o acquistano legalmente dati per addestrare l'IA. Ryan Clarkson dello studio legale Clarkson, l'avvocato dei querelanti, ha dichiarato in una dichiarazione che:
“Google deve capire, una volta per tutte: non possiede Internet, non possiede i nostri lavori creativi, non possiede le nostre espressioni della nostra personalità, le immagini delle nostre famiglie e dei nostri figli, o qualsiasi altra cosa semplicemente perché la condividiamo in linea."
I querelanti hanno sostenuto che "pubblicamente disponibile" non implica e non ha mai comportato che sia "libero da usare per qualsiasi scopo".

Secondo la causa, Google potrebbe potenzialmente dover pagare più di $ 5 miliardi di danni. Ha inoltre richiesto un'ingiunzione del tribunale che richiedesse a Google di ottenere prima l'autorizzazione esplicita degli utenti.

Ciò include consentire agli utenti di rinunciare alla sua "raccolta di dati illecita", insieme alla possibilità di eliminare i dati già esistenti o fornire "un equo compenso" ai proprietari dei dati.

All'inizio di questa settimana, l'autrice e comica Sarah Silverman, insieme ad altri due autori, ha intentato una causa contro il produttore di ChatGPT OpenAI e Meta per il loro utilizzo di opere protette da copyright senza autorizzazione nella formazione AI.

In precedenza, OpenAI è stata colpita da un'altra causa per presunto scraping di dati.

martedì 13 giugno 2023

La NASA ha organizzato una conferenza sugli UFO/Project Blue Beam

GENERALMCNEWS
Si sta verificando un'importante operazione psicologica sugli UFO. Per la prima volta, la NASA ha organizzato un evento pubblico per esaminare gli avvistamenti UFO. Funzionari governativi hanno individuato misteriose sfere metalliche che volano in tutto il mondo, oltre a molti altri tipi di fenomeni anomali non identificati (UAP), secondo il primo incontro pubblico del gruppo di studio indipendente UAP della NASA.

Il fisico dottor Sean Kirkpatrick, direttore dell'All-domain Anomaly Resolution Office (AARO) del Pentagono, ha dichiarato: "Vediamo queste ['sfere metalliche'] in tutto il mondo, e le vediamo compiere manovre apparenti molto interessanti."

giovedì 1 giugno 2023

L'intelligenza artificiale potrebbe mettere l'umanità a "rischio di estinzione", avvertono i leader tecnologici


Actualidad sadefenza
Ridurre il rischio esistenziale generato dall'intelligenza artificiale dovrebbe essere una "priorità globale", affermano 350 esperti.

L'intelligenza artificiale (AI) potrebbe rappresentare un "rischio di estinzione" per l'umanità dell'entità di una guerra nucleare o di una pandemia, secondo una lettera aperta firmata dai 350 dirigenti più importanti di quel settore tecnologico.

Leader nello sviluppo dell'IA tra cui il CEO di OpenAI Sam Altman; il vincitore del Turing Award Geoffrey Hinton; i CEO di DeepMind e Anthropic, e diversi dirigenti di Microsoft e Google, avvertono che ridurre il rischio esistenziale generato dall'intelligenza artificiale dovrebbe essere una " priorità globale" .

"Mitigare il rischio di estinzione dell'IA dovrebbe essere una priorità globale, insieme ad altri rischi sociali come le pandemie e la guerra nucleare"
, si legge nella lettera, pubblicata dal Center for AI Safety, un'organizzazione senza scopo di lucro.

sabato 27 maggio 2023

La verità sull’intelligenza artificiale e sui suoi rischi

Da Fabrizio Corgnati
Lorenzo Tamos: «La verità sull’intelligenza artificiale e sui suoi rischi». L’avvocato Lorenzo Tamos spiega perché è importante studiare attentamente le norme europee che regolino lo sviluppo dell’intelligenza artificiale. L’intelligenza artificiale è indubbiamente uno dei temi del momento: se ne occupano l’informazione, la società, la politica, l’ingegneria, la filosofia, la giurisprudenza, finanche la letteratura. Ma, sospesi tra gli entusiasti per i possibili sviluppi tecnologici del nostro imminente futuro e i timorosi per i rischi di una deriva distopica, siamo sicuri di avere compreso davvero fino in fondo di cosa stiamo parlando? Il periodico ha chiesto lumi all’avvocato Lorenzo Tamos, che ha studiato a lungo questo argomento da una prospettiva non solo tecnica bensì umanistica.

mercoledì 17 maggio 2023

Creatore di ChatGPT: l'intelligenza artificiale può causare "danni significativi al mondo" se non regolamentata

Sam Altmann Vinci McNamee 
Creatore di ChatGPT: l'intelligenza artificiale può causare "danni significativi al mondo" se non regolamentata

Sam Altman ha suggerito di creare un'agenzia statunitense o internazionale per concedere in licenza i più potenti sistemi di intelligenza artificiale.

OpenAI, la società che ha sviluppato il popolare strumento ChatGPT , ritiene che l'intervento del governo sarà essenziale per mitigare i rischi dei sistemi di intelligenza artificiale (AI).

giovedì 4 maggio 2023

"Il padrino dell'IA" emette un avviso e lascia Google

La società tecnologica statunitense Google ha lanciato una versione di prova del suo chatbot Bard nel tentativo di raggiungere il popolare ChatGPT di OpenAI © Getty Images / CFOTO/Future Publishing via Getty Images
newsrt.
Geoffrey Hinton afferma che i "cattivi attori" potrebbero sfruttare l'intelligenza artificiale per "cose ​​cattive". Lo scienziato vincitore del Turing Award, Geoffrey Hinton, si è dimesso da Google il mese scorso, dove aveva trascorso gran parte dell'ultimo decennio a sviluppare programmi di intelligenza artificiale generativa (AI), e ha avvertito dei rischi che il lavoro della sua vita potrebbe presentare all'umanità.

Hinton è accreditato di essere una figura fondamentale nell'avvento dell'Intelligenza Artificiale (AI), ma ha dichiarato al New York Times in una lunga intervista pubblicata lunedì di aver preso la decisione di uscire nel mezzo di una corsa agli armamenti de facto nella Silicon Valley tra Google e Microsoft.

mercoledì 3 maggio 2023

Intelligenza Artificiale. A chi serve?

Roberto Pecchioli 
"Oh no! Ho creato un mostro!” Le parole del dottor Victor Frankenstein dopo aver osservato la sua creatura risuonano oggi nei pensieri – e negli incubi- di alcuni tra i massimi tecnologi e scienziati del mondo, con riferimento all’Intelligenza Artificiale ( I.A.). In particolare dal novembre scorso , da quando è disponibile in forma di applicazione uno strumento chiamato ChatGPT che ha lasciato tutti a bocca aperta per la sua capacità di creare contenuti di ogni genere, scrivere quasi di tutto con un alto grado di originalità, precisione, accuratezza e immediatezza. Il “chatbot” ( un software progettato per simulare conversazioni con esseri umani) , realizzato dalla californiana OpenAI –creato, tra gli altri, da Elon Musk–, non è il primo degli strumenti tecnologi disponibili per una vasta gamma di utilizzi. Altri bot di I.A. – generano immagini – come Midjourney o Dall-E- e possono ideare illustrazioni o fotomontaggi di grande effetto.

► Potrebbe interessare anche: