L’energia necessaria per far funzionare chip ad alta elaborazione e sistemi di raffreddamento rende l’intelligenza artificiale come il petrolio: redditizia per gli esseri umani ma con un costo ambientale
Anche se l’umanità abbraccia con entusiasmo l’intelligenza artificiale nonostante i dubbi sul fronte accademico e della sicurezza, la fame di energia dell’IA e la sua impronta di carbonio stanno causando crescente preoccupazione. L’intelligenza artificiale viene spesso paragonata ai combustibili fossili. Il petrolio, una volta estratto e raffinato, è un bene redditizio; e come il petrolio, l’intelligenza artificiale ha un grande impatto ambientale che ha sorpreso molti.
Un articolo del MIT Technology Review afferma che il ciclo di vita per l’addestramento di comuni modelli di intelligenza artificiale di grandi dimensioni ha un impatto ambientale significativo, riportando che “l’intero processo può emettere più di 626.000 libbre di anidride carbonica equivalente, quasi cinque volte le emissioni durante la vita dell’americano medio”. automobile (e ciò include la fabbricazione dell’auto stessa).”
Un articolo di ricerca di Alex de Vries della VU Amsterdam School of Business and Economics solleva inoltre preoccupazioni sul consumo di elettricità derivante dallo sviluppo accelerato del calcolo e sul potenziale impatto ambientale dell’intelligenza artificiale e dei data center. "Negli ultimi anni, il consumo di elettricità dei data center ha rappresentato un 1% relativamente stabile del consumo globale di elettricità, escluso il mining di criptovalute", afferma de Vries.
Come funzionano i data center AI
Uno studio del MIT afferma che dieci anni fa “la maggior parte dei modelli NLP (Natural Language Processing) potevano essere addestrati e sviluppati su un laptop o un server di base”. Ma i data center AI ora richiedono più istanze di hardware specializzato come unità di elaborazione grafica (GPU) o unità di elaborazione tensore (TPU).
“L’obiettivo di un modello linguistico di grandi dimensioni è indovinare cosa verrà dopo in un corpo di testo”, afferma un articolo della Columbia Climate School. “Per raggiungere questo obiettivo, deve prima essere formato. La formazione prevede l’esposizione del modello a enormi quantità di dati (forse centinaia di miliardi di parole) che possono provenire da Internet, libri, articoli, social media e set di dati specializzati.
Questo processo di formazione richiede settimane o mesi, durante i quali un modello di intelligenza artificiale capisce come eseguire con precisione determinate attività valutando diversi set di dati.
Inizialmente, il modello di intelligenza artificiale fa ipotesi casuali per trovare la soluzione corretta. Ma con la formazione continua, identifica sempre più modelli e relazioni nei dati forniti per produrre risultati accurati e pertinenti.
I progressi nelle tecniche e nell’hardware per l’addestramento delle reti neurali negli ultimi anni hanno consentito “impressionanti miglioramenti della precisione in molte attività fondamentali della PNL”.
“Di conseguenza, l’addestramento di un modello all’avanguardia richiede ora notevoli risorse computazionali che richiedono una notevole energia, insieme ai costi finanziari e ambientali associati”, aggiunge lo studio del MIT.
Domanda energetica dei data center AI e impronta di carbonio
La rapida espansione e l'applicazione su larga scala dell'intelligenza artificiale nel 2022 e nel 2023 dopo il lancio del ChatGPT di OpenAI ha guidato lo sviluppo di modelli linguistici di grandi dimensioni (LLM) da parte di importanti aziende tecnologiche come Microsoft e Alphabet (Google).
Il successo di ChatGPT (che ha raggiunto la cifra senza precedenti di 100 milioni di utenti in due mesi), ha spinto Microsoft e Google a lanciare i propri chatbot AI, rispettivamente Bing Chat e Bard, racconta l'articolo di Vries.
Vries ha dichiarato a RT: “Sappiamo già che i data center rappresentano l’1% del consumo globale di elettricità. Grazie alle tendenze digitali come il mining di criptovalute e l’intelligenza artificiale, nei prossimi anni questa percentuale potrà facilmente aumentare fino al 2% e oltre”.
Lo studio del MIT ha stimato che il cloud computing ha un’impronta di carbonio maggiore rispetto all’intero settore aereo. Inoltre, un data center potrebbe richiedere la stessa quantità di elettricità necessaria per alimentare circa 50.000 case.
L’elettricità è necessaria per far funzionare chip e sistemi di raffreddamento ad alte prestazioni, poiché i processori si surriscaldano mentre analizzano enormi quantità di dati e producono risposte accurate.
Lo studio di De Vries afferma che il modello “BigScience Large Open-Science Open-Access Multilingual (BLOOM) di Hugging Face ha consumato 433 MWh di elettricità durante l’allenamento”.
“Altri LLM, tra cui GPT-3, Gopher e Open Pre-trained Transformer (OPT), utilizzano rispettivamente 1287, 1066 e 324 MWh per la formazione. Ciascuno di questi LLM è stato addestrato su terabyte di dati e dispone di 175 miliardi o più di parametri”, aggiunge lo studio.
De Vries ha citato nel suo articolo la società di ricerca SemiAnalysis, che suggerisce che OpenAI richiedesse 3.617 server HGX A100 di NVIDIA, con un totale di 28.936 GPU per supportare ChatGPT, il che implica una richiesta di energia di 564 MWh al giorno.
“Google ha riferito che il 60% del consumo energetico legato all’intelligenza artificiale dal 2019 al 2021 derivava dall’inferenza ( dove i dati in tempo reale vengono gestiti attraverso un modello di intelligenza artificiale). Anche la società madre di Google, Alphabet, ha espresso preoccupazione per quanto riguarda i costi dell'inferenza rispetto ai costi della formazione", ha aggiunto.
Uno studio condotto da ricercatori dell'Università della California a Berkeley ha stimato che GPT-3, su cui è modellato ChatGPT, aveva 175 miliardi di parametri che producevano 502 tonnellate di CO2 durante la sua fase di addestramento, mentre le sue emissioni giornaliere di carbonio erano pari a 50 libbre (o 8,4 tonnellate all’anno).
Il dibattito sulla fattibilità dell’IA e le azioni future
De Vries afferma che la maggiore domanda di energia per i data center sarà generalmente soddisfatta dai combustibili fossili. “Abbiamo solo un’offerta limitata di energie rinnovabili e abbiamo già dato priorità a quelle, quindi qualsiasi domanda aggiuntiva sarà alimentata da combustibili fossili di cui dobbiamo sbarazzarci”, ha detto a RT. “Anche se inseriamo le energie rinnovabili nell’intelligenza artificiale, qualcos’altro da qualche parte dovrà essere alimentato con combustibili fossili, il che non farà altro che esacerbare il cambiamento climatico”.
Avik Sarkar, professore alla Indian School of Business ed ex capo del centro di analisi dei dati dell'India Niti Aayog, ritiene banale il dibattito sulle richieste energetiche dell'intelligenza artificiale e sull'impronta di carbonio. Nel 2018 ha lavorato a un'analisi con l'Agenzia internazionale per l'energia (IEA) sulla crescita dei data center in India e sul suo impatto sul consumo energetico nel paese.
“L’impatto dell’intelligenza artificiale sul consumo energetico è minimo e molte tecnologie consumano grandi quantità di energia”, ha detto a RT. “Guardando qualsiasi strada principale delle principali città, la quantità di illuminazione nei cartelloni pubblicitari è così enorme che le luci sono visibili dallo spazio esterno, chiamate luci notturne, che sono un grande indicatore di sviluppo e crescita economica. Il consumo di energia è un effetto naturale dell’urbanizzazione, del capitalismo e della crescita economica: dobbiamo imparare a convivere con questa realtà”.
Commentando la domanda energetica dei data center AI e l’impatto delle emissioni di carbonio, de Vries afferma che il problema non è limitato solo all’India e che il cambiamento climatico è un problema globale. “Se aumentiamo sia la domanda di energia che le emissioni di carbonio come risultato dell’intelligenza artificiale, ciò influenzerà anche tutti i paesi vulnerabili”, ha affermato.
Sarkar ammette che enormi quantità di consumo di energia per l’intelligenza artificiale sono dovute ai grandi data center che forniscono infrastrutture di archiviazione e elaborazione. Un ulteriore impatto energetico deriva dall'acqua utilizzata per il raffreddamento dei data center.
Sarkar ha sottolineato che la maggior parte dei data center globali hanno sede fuori dall’India, sostenendo che il paese non si trova attualmente ad affrontare una sfida importante. Ad eccezione dei dati personali, altri punti dati indiani possono essere archiviati in centri fuori dal paese.
“I dati critici relativi alle transazioni finanziarie, all’Aadhar o ai dati sanitari devono risiedere in India e sarebbe enorme. L’India ha zone climatiche diverse e può mitigare l’elevato consumo di energia collocando questi data center in zone più fresche e non sismiche del paese”, ha suggerito.
Secondo De Vries, la buona notizia è che ci sono dei colli di bottiglia nella catena di fornitura dei server AI, il che significa che la crescita sarà in qualche modo limitata nel breve termine. “Dovremmo sfruttare questa opportunità per pensare a un’applicazione responsabile dell’intelligenza artificiale e garantire che sia garantita la trasparenza anche laddove viene utilizzata l’intelligenza artificiale, in modo da poter valutare adeguatamente l’impatto di questa tecnologia”, ha affermato.
Nessun commento:
Posta un commento
grazie del tuo commento