Ma quanta energia consuma l’AI? Strategie per renderla più sostenibile
https://ift.tt/lZE5FJ9
Non vi è dubbio che siamo di fronte ad una rivoluzione sociale, economica e industriale senza eguali che promette di fare cose fino ad ora inimmaginabili: l’intelligenza artificiale generativa.
L’AI generativa è solo l’ultima delle tecnologie informatiche, dopo il cloud e le crypto, a richiedere una capacità di calcolo e di storage superiore ad ogni applicazione fino ad ora fatta.
Ma con un salto dimensionale ed un approccio totalmente diverso a quanto visto fino ad ora.
Infatti, con l’avvento del cloud l’obiettivo era avere a disposizione capacità di calcolo prossima a chi utilizzava le applicazioni, con la corsa a costruire data center distribuiti sul territorio sempre più potenti, sempre più sicuri, sempre più capaci e sempre più energivori. Con le crypto è cresciuta a dismisura la necessità di mining e gestione delle transazioni con data center ancora più performanti.
Anche qui, con la minima latenza, ovvero la massima prossimità. E con questo assorbendo una quantità di energia prossima al 2% dei consumi mondiali.
L’impatto energetico dell’intelligenza artificiale
Con l’AI generativa la necessità di capacità di calcolo e di storage cresce in maniera esponenziale in quanto i sistemi di AI vanno opportunamente addestrati con una quantità di dati semplicemente infinita rispetto a prima. E con essa la quantità di energia.
A differenza dei data center per il cloud e le crypto, l’AI richiede prossimità a grandi fonti di energia più che all’utilizzatore, richiede la necessità di energie rinnovabili per ridurre l’impatto su quelle fossili e non sottrarre l’energia alle comunità intorno a se.
A livello globale, soprattutto nei paesi più industrializzati, è in atto un processo di elettrificazione di tutto ciò che è possibile trasformare in elettrico: dalle auto alle industrie pesanti, dagli apparecchi casalinghi a quelli industriali, con una rete elettrica già sotto stress e incapace a soddisfare la domanda al punto da rallentare alcuni sviluppi.
Data center sempre più energivori: i big investono sulle rinnovabili
Appena pochi anni fa un data center per l’AI consumava circa 10 megawatt di energia, lo stesso oggi ne consuma mediamente 100 anche se l’Uptime Institute, una società di consulenza specializzata nel settore, ha identificato 10 campus di cloud computing di grandi dimensioni in tutto il Nord America con un consumo medio di 621 megawatt. Di questo passo l’insieme di cloud e Intelligenza Artificiale si stima che nel 2026, cioè domani, possa assorbire il 10% dell’energia elettrica a livello mondiale, ovvero più del doppio di quanto consuma annualmente il Giappone.
Non a caso le grandi aziende, da Google ad Amazon, da Microsoft ad IBM, investono continuamente in tecnologie per energie rinnovabili, in aziende che possano far risparmiare anche pochi punti percentuali di energia consumata, in enormi campi fotovoltaici ed eolici e sono tra i primi finanziatori delle aziende che sviluppano tecnologie per la fusione nucleare. La stessa Open AI, tra le aziende di spicco nel settore con ChatGPT, ha investito ingenti risorse nella startup Helion concentrata sulla fusione nucleare e subito dopo la stessa Microsoft ha firmato un accordo con Helion per essere tra i primi clienti. Questo perché, come dichiarato di recente a Davos da Sam Altman, CEO di OpenAI, “la futura intelligenza artificiale consumerà così tanta elettricità da richiedere una svolta energetica per alimentarla”.
Futuro digitale a rischio: il problema dell’energia
Con questi ritmi di crescita e con le prospettive dichiarate dall’industria dell’AI, la scelta è quella di utilizzare la stessa AI per identificare le aree del mondo dove installare i data center necessari, con minor impatto in termini di carbon footprint, con disponibilità di energie rinnovabili sufficiente a garantire l’autonomia del data center. Ma l’AI serve anche a gestire il data center in funzione delle previsioni di domanda, condizioni meteo, disponibilità di energia e tanti altri parametri per, ad esempio, ridurre i consumi anche del 30% senza dover necessariamente installare un nuovo parco macchine più efficiente.
Oggi la corsa è anche ad accaparrarsi ogni possibile gigawatt di energia disponibile pur di far funzionare dei rack e dei server in più. E l’attesa è già di un paio di anni in molti casi, perché a monte c’è l’industria che deve costruire gli impianti di produzione, trasformazione e trasporto di energia con, ad esempio, la saturazione della produzione di grandi trasformatori per i prossimi 3 anni. Anche soluzioni temporanee con i generatori diesel di grosse potenze richiedono 2 anni di attesa. Insomma la trasformazione energetica e digitale vanno di pari passo non solo perché la prima (l’energetica) ha bisogno della seconda (digitale) per essere governata, ma anche perché la seconda (energetica) non avanza senza l’energia della prima.
La gestione delle risorse naturali nell’era dell’AI: il problema dell’acqua
L’altra risorsa naturale, abbondante in generale, ma preziosissima per la vita, è l’acqua. Un data center ne consuma tanta per raffreddarsi, tanta al punto tale che in alcuni paesi l’acqua di raffreddamento ormai calda è usata per riscaldare gli edifici circostanti, ma anche tanta da creare difficoltà nelle aree in cui i grandi data centers si insediano.
Il quadro regolatorio sui requisiti energetici è in evoluzione, ancora molto frammentato e legato ad iniziative dei singoli stati. L’orientamento complessivo tra Europa e USA è quello di imporre largo uso di energie rinnovabili, anche fino al 90%, o di rendere pubblico l’impatto ambientale come descritto nel report di sostenibilità aziendale dell’EU.
I troppi dubbi sulla sostenibilità ambientale dell’AI
Ma viene da chiedersi quale sia il vantaggio dell’Intelligenza Artificiale se il suo impatto a livello globale è ben superiore a qualsiasi altra azione umana fatta fino ad ora? E per di più senza la possibilità di seguire rapidamente la sua evoluzione perché semplicemente non siamo in grado di tenere accesi i dati center necessari?
Innanzitutto l’intelligenza artificiale dovrebbe essere parte della soluzione dei problemi energetici che essa stessa richiede, e non il problema in se. Poi bisogna ricordare gli indubbi vantaggi socioeconomici con risvolti pratici nella vita reale e nel lavoro di ognuno, ivi compresa la sfida per accelerare la transizione energetica ma aprirsi ad un futuro di energie rinnovabili più sicure del passato (esempio con fusione nucleare).
Bisogna poi controbilanciare questi maggior consumi con tutti i risparmi diretti, ed indiretti, che l’AI ci genera nelle sue applicazioni pratiche e, come si è visto, in ogni aspetto della nostra vista.
Con la combinazione di transizione energetica e digitale con AI in prima fila, deve seguire anche una transizione culturale su ciò che l’uomo fa da se e ciò che gli viene servito su un piatto d’argento dall’AI, senza per questo perdere la propria capacità discrezionale e decisionale, di analisi e di sintesi che nessuna macchina riesce ad avere oggi.
Conclusioni
La sostenibilità di un sistema è sicuramente ambientale, è sicuramente energetica, ma va sempre calata nell’intero ecosistema per capire il suo impatto. In questo caso proprio i paesi meno sviluppati possono trarne un grande vantaggio perché hanno a disposizione grandi fonti di energie rinnovabili e di acqua, hanno molte aree non urbanizzate e quindi target per la costruzione di data center energivori ma con prossimità alle fonti, hanno l’opportunità di adeguarsi agli standard ed alle tecnologie dei paesi avanzati.
April 5, 2024 at 10:42AM