Ogni mattina, in qualche parte del mondo, un modello di intelligenza artificiale risponde a milioni di domande. E ogni volta che lo fa, una rete elettrica registra un aumento di carico. Così, anche se a singhiozzo si discute di sostenibilità, una delle tecnologie considerate tra le più promettenti presenta un aspetto trascurato dai più: la bolletta energetica. Se infatti c’è una cosa che potrebbe rallentare davvero la corsa dell’IA è proprio questa. Dietro ogni nostro messaggio ci sono server, sistemi di raffreddamento e infrastrutture che non devono fermarsi mai.

Media di 3 wattora per prompt, ma il range è molto ampio
Le stime sul consumo per singola interazione variano sensibilmente. Una media spesso citata si aggira intorno ai 3 wattora per prompt, ma il range è molto più ampio e varia da meno di 1 wattora nei casi più efficienti fino agli oltre 30 nei modelli più complessi. Per dare un ordine di grandezza, si passa dal consumo di un piccolo dispositivo indossabile per pochi minuti, come uno smartwatch, fino a quello di un elettrodomestico in funzione prolungata, l’equivalente di un forno a microonde acceso per 20 minuti. Tuttavia, il punto non è la singola domanda che facciamo a ChatGPT.
Valanga di query giornaliere e impatti ambientali significativi
A incidere sono, da un lato, le differenze tra modelli. GPT-4o, per esempio, può richiedere circa 0,43 wattora per una semplice richiesta, mentre sistemi più intensivi come o3 o DeepSeek-R1 superano i 33 wattora, una differenza di oltre 70 volte. Dall’altro lato, il tema è di scala. Come stimano alcuni studi recenti, 700 milioni di query giornaliere su GPT-4o equivalgono al consumo elettrico annuale di circa 35 mila famiglie. Un livello di domanda energetica che si traduce anche in impatti ambientali significativi.

Grosso dispendio idrico per il raffreddamento dei data center
Se le emissioni associate sono nell’ordine di circa 4,3 grammi di CO₂ per query, su scala aggregata ciò corrisponde a un consumo che richiederebbe una superficie forestale comparabile a quella di città come Chicago o Madrid per essere compensato. Senza considerare il dispendio idrico necessario al raffreddamento dei data center, che si aggira tra 1,3 e 1,6 miliardi di litri di acqua dolce all’anno, equivalenti al fabbisogno di circa 1,2 milioni di persone.
Il paradosso di Jevons sull’efficienza
Il fenomeno si inserisce in una traiettoria di crescita accelerata. Il Fondo monetario internazionale osserva che i settori legati all’IA negli Stati Uniti stanno crescendo quasi tre volte più velocemente del resto dell’economia privata, mentre i costi elettrici delle aziende IA integrate sono quasi raddoppiati tra il 2019 e il 2023. A questo si aggiunge un elemento strutturale, e cioè che l’efficienza non riduce necessariamente i consumi, anzi.

È una dinamica nota come paradosso di Jevons e ci dice che più l’IA diventa efficiente, più viene utilizzata. E più viene utilizzata, più consuma e più la rete soffre. Dinamiche di questo tipo sono già visibili. In Irlanda, per esempio, nell’area di Dublino, la pressione dei data center, pari a oltre un quinto della domanda elettrica nazionale, ha portato a limitare nuove connessioni per evitare tensioni sulla rete.
Pressione crescente su infrastrutture come università e ospedali
A questo punto la domanda cambia natura: non è più solo quanta energia consuma l’intelligenza artificiale, ma chi ne sostiene il costo. Sempre il Fmi stima che, entro il 2030, la domanda energetica dell’IA potrebbe contribuire a un aumento fino all’8,6 per cento dei prezzi dell’elettricità negli Stati Uniti, in scenari con crescita limitata delle rinnovabili. Un effetto che si traduce in bollette più alte per famiglie e imprese e in pressione crescente sulle infrastrutture come università e ospedali. Del resto l’uso di GPT-4o per un anno può richiedere l’equivalente del fabbisogno energetico di circa 50 ospedali o di 325 università. In altri termini, non si tratta più di innovazione, ma di una redistribuzione silenziosa con costi scaricati sui cittadini attraverso bollette più care e servizi sotto pressione.
Big Tech cerca di garantirsi l’accesso diretto all’energia
Nel frattempo Big Tech non aspetta e si muove per garantirsi l’accesso diretto all’energia. Microsoft ha siglato un accordo con Helion Energy per l’acquisto di energia da fusione, con l’obiettivo dichiarato di iniziare la fornitura entro la fine del decennio, anche se la tecnologia non è ancora commercialmente matura. Amazon, dal canto suo, ha investito nello sviluppo di reattori modulari di nuova generazione attraverso X-Energy, mentre Google ha avviato collaborazioni con Kairos Power per esplorare soluzioni nucleari avanzate. Il segnale è chiaro: la partita non è più sulla tecnologia, ma sull’energia. E, soprattutto, su chi riuscirà ad assicurarsela per primo.
