La rivoluzione legata all’Intelligenza Artificiale (AI) ha stravolto tutti i campi della produttività, del lavoro, della conoscenza. Insomma, in poche parole, del nostro quotidiano. Ma le conseguenze che questa rivoluzione porta con sé vanno anche al di là di quanto normalmente siamo abituati ad immaginare. Infatti la diffusione delle applicazioni legate all’AI ha portato ad una moltiplicazione esponenziale dei data center i quali, a loro volta, richiedono un’energia superiore al normale per riuscire a portare a termine le innumerevoli funzioni a loro assegnate.
Qualche settimana fa Google ha dichiarato che acquisterà energia da Kairos Power, uno sviluppatore di piccoli reattori modulari, per contribuire a “realizzare i progressi dell’intelligenza artificiale”. Ma non è stato il solo. Recentemente Amazon ha annunciato un mega investimento nel nucleare: un accordo da 500 milioni di dollari con Dominion Energy per esplorare lo sviluppo di un piccolo reattore nucleare modulare nei pressi della centrale nucleare di North Anna della società di servizi.
Il mese scorso Microsoft ha firmato un accordo con la società energetica statunitense Constellation per ripristinare un reattore in disuso nella centrale nucleare di Three Mile Island in Pennsylvania nonostante questa centrale sia stato teatro, in passato (marzo 1979) della più grave fusione nucleare e della più grave fuga di radiazioni nella storia degli Stati Uniti.
Questi sono solo tre esempi, per quanto paradigmatici, di quanto si cela dietro alla rivoluzione AI e di quello che questa rivoluzione chiede con sempre maggior insistenza: energia. Un problema non indifferente in un momento storico caratterizzato da quella che tutti ormai conoscono come “transazione energetica”. Il trend, infatti, è quello di eliminare gradualmente le fonti energetiche di origine fossile per sostituirle con quelle rinnovabili. La stessa Arabia Saudita, con la sua Vision 2030, ha deciso di sostituire la sua principale fonte di sostentamento, il petrolio, con altre fonti energetiche, diversificando ed allo stesso tempo ampliando, le entrate delle casse dello stato. Parallelamente, anche le grandi aziende tecnologiche stanno ricorrendo a fonti di energia alternative, come il nucleare, per soddisfare la crescente domanda di energia dei data center necessari per addestrare e gestire gli enormi modelli di intelligenza artificiale generativa.
I giganti del settore tecno sono alle prese con una crescente domanda di applicazioni per AI che richiedono specifiche GPU (unità di elaborazione grafica) le quali, oltre che essere particolarmente costose, per funzionare necessitano di un quantitativo energetico molto superiore a quanto necessario ai vecchi sistemi. Lo stesso fenomeno che si è verificato anche nel settore delle auto criptovalute. E i numeri lo confermano.
Secondo un rapporto di ricerca dell’Agenzia internazionale per l’energia , si prevede che il consumo globale di elettricità da parte di data center, intelligenza artificiale e settore delle criptovalute raddoppierà, passando da una stima di 460 terawattora (TWh) nel 2022 a oltre 1.000 TWh nel 2026. Ed ancora. Stando ad un report pubblicato dall’Università della California, Riverside, la celebre app di Intelligenza Artificiale ChatGPT consuma 500 millilitri di acqua ogni 10-50 prompt, a seconda di quando e dove viene distribuito il modello AI. Considerando che la media di utenti attivi settimanali è stata, a novembre dello scorso anno, pari a 100 milioni, è facile comprendere le dimensioni del problema.
Il nucleare, sebbene considerata energia pulita perché non produce gas serra, oltre che una fonte rinnovabile che può contare su tecnologie avanzate per essere prodotta, non è esente da rischi. Gli impianti, infatti, per rispettare standard di sicurezza idonei richiedono ampi investimenti oltre che personale estremamente qualificato e iper specializzato. Inoltre la loro costruzione, oltre che burocraticamente complessa, è, di fatto, un progetto che, per essere realizzato, richiede anni. Il tutto senza dimenticare il problema della gestione (trattamento e stoccaggio) delle scorie che si creano durante la produzione.
I sostenitori, invece, ricordano che il nucleare come fonte energetica, è più affidabile di altre come l’energia solare ed eolica. Come se non bastasse, in alcuni casi, i problemi riguardano anche gli spazi e i terreni destinati ad ospitare i data center. Il nuovo piano di costruzioni per impianti e data center di Meta Platforms, infatti, è stato ostacolato dalla presenza di una rara specie di ape presente sul terreno prescelto.
Tra le altri opzioni sul tavolo figurano anche l’informatica quantistica e il raffreddamento a liquido per i data center. In quest’ultimo caso si parla di una necessità tecnica specifica. L’aumento della domanda di intelligenza artificiale generativa ha coinciso con la spinta a trovare soluzioni di raffreddamento più efficienti nei data center, in particolare il raffreddamento a liquido, un processo in cui l’acqua viene utilizzata per abbassare le temperature dei server e di altre apparecchiature elettroniche. Purtroppo, anche in questo caso, la necessità di usare una risorsa primaria come l’ acqua arriva in un momento storico in cui molte zone del pianeta sono alle prese con un comportamento atmosferico a dir poco schizofrenico. Dopo lunghi periodi di disastrosa siccità, molte zone sono flagellate da veri e proprie inondazioni favorite dal mancato assorbimento dell’acqua da parte di un terreno reso compatto ed impermeabile dalla lunga mancanza di precipitazioni.
Oltre all’energia nucleare e alla tecnologia di raffreddamento a liquido, alcuni attori del settore tecnologico hanno ipotizzato che gli sviluppi nell’ambito dell’intelligenza artificiale potrebbero contribuire a decarbonizzare i data center. In altre parole si tratterebbe di cambiare il punto di vista e cioè: non trovare solo una soluzione ad un problema (la gestione dei costi e delle risorse necessarie per far funzionare l’AI) ma fornire una soluzione sostenibile sul lungo periodo al problema stesso. Perciò la prossima strategia sarà quella di creare una nuova AI il cui funzionamento non dovrà richiedere le stesse risorse.