L’IA potrebbe consumare un quarto dell’energia degli Stati Uniti

Un rapporto dell’IEA Electricity 2024 evidenzia che le richieste a ChatGPT consumano quasi dieci volte più energia di una ricerca su Google.
In una recente intervista riportata dal Wall Street Journal, Rene Haas, CEO di Arm, ha lanciato un allarme sull’insaziabile bisogno di energia dell’intelligenza artificiale. Lui ha dichiarato che l’utilizzo dell’energia elettrica da parte dei data center IA potrebbe salire fino al 25% del totale consumato oggi negli Stati Uniti, che attualmente si attesta al 4%.
Rene Haas ha fatto riferimento a un rapporto dell’Agenzia Internazionale per l’Energia di gennaio, secondo cui ChatGPT consuma circa 2,9 wattora per ogni richiesta, dieci volte in più di una ricerca Google standard. Di conseguenza, se Google convertisse completamente il suo motore di ricerca, il consumo energetico annuale salirebbe ad almeno 11 terawattora rispetto all’attuale 1 TWh.
Il rapporto originale paragona il consumo di 2,9 wattora al funzionamento di una lampadina da 60 watt per poco meno di tre minuti. In maniera analoga all’aumento dei consumi di ChatGPT rispetto ai motori di ricerca tradizionali, si prevede che la domanda energetica dell’industria dell’Intelligenza Artificiale aumenterà di dieci volte.
Queste dichiarazioni arrivano in vista di una presunta partnership tra Stati Uniti e Giappone nell’ambito dell’IA, e in concomitanza con recenti sviluppi come Sora di OpenAI, la cui versione attuale, secondo le stime di Factorial Funds, consumerebbe almeno una GPU Nvidia H100 all’ora per generare cinque minuti di video. Anche per Grok 3 si stima che siano necessarie 100.000 Nvidia H100 solo per l’addestramento. Una singola Nvidia H100 da 700 watt può consumare circa 3740 kilowattora all’anno.
Senza importanti miglioramenti nell’efficienza e/o un notevole aumento della regolamentazione governativa, Rene dichiara che l’attuale tendenza è “difficilmente sostenibile” e potrebbe avere ragione.
L’Amministrazione Informazioni Energetiche degli Stati Uniti (EIA) ha affermato che nel 2022 gli Stati Uniti hanno generato un totale di 4,24 trilioni di kilowattora, o 4240 terawattora, di cui solo il 22% proveniva da fonti rinnovabili. Questo si confronta con un consumo totale di 3,9 trilioni di kWh, o 3900 terawattora dei circa 42 disponibili.
Ciò lascia 11 dei 340 terawattora rimanenti ai livelli attuali che l’industria IA sembra puntare per il prossimo decennio. La sostenibilità deve tenere in considerazione anche le crescenti esigenze di altre industrie e il rapporto tra risorse rinnovabili e non rinnovabili. Considerando che il costo dell’energia è quasi raddoppiato dal 1990 (secondo Statista), forse è giustificato chiedere una maggiore regolamentazione.

Naturalmente, testate come il New York Times stanno anche intentando cause legali contro OpenAI e Microsoft, quindi l’industria IA attuale non è esente da sfide legali esistenti. Rene Haas ha espresso la speranza che la partnership internazionale tra Giappone e Stati Uniti possa migliorare queste stime di consumo energetico estremamente elevate. Ma l’avidità corporativa e la domanda di calcolo sono anche internazionali, quindi solo il tempo può dirlo.