Ogni prompt ha un prezzo: l’impronta invisibile dell’AI su clima e risorse
Ogni richiesta a ChatGPT consuma 0,34 wattora e 0,322 ml di acqua: piccoli numeri che, moltiplicati per miliardi di interazioni quotidiane, diventano un macigno. Secondo l’Iea, entro il 2030 i data center consumeranno più elettricità del Giappone.
Dietro la leggerezza di un prompt si nasconde un’impronta crescente in termini di energia e acqua. Come riportato da Forbes, l’intelligenza artificiale è entrata nelle nostre vite in silenzio, quasi senza che ce ne accorgessimo, eppure, dietro ogni interazione con ChatGPT, Gemini o Copilot, si nasconde un consumo tangibile di energia e acqua. Secondo i dati diffusi da OpenAI e Google, un singolo prompt richiede rispettivamente 0,34 e 0,24 wattora di elettricità, e fino a 0,322 ml di acqua. Su Gemini un prompt si attesta a 0,24 wattora e 0,26 millilitri. Numeri apparentemente trascurabili, se non fosse che ogni giorno, secondo Tech Trunch, solo ChatGPT riceve 2,5 miliardi di prompt (OpenAI ha dichiarato 700 milioni di utenti settimanali attivi nell’agosto 2025). Questo significa milioni di litri d’acqua ed enormi quantità di elettricità che si sommano a livello globale, alimentando un’infrastruttura sempre più vorace.
I data center come nuove “nazioni energetiche”
Secondo l’Agenzia internazionale dell’energia (Iea), la domanda elettrica dei data center supererà i 945 TWh entro il 2030. Un livello leggermente superiore a quello che consuma oggi il Giappone. In futuro, le reti elettriche dovranno quindi gestire non solo la transizione verso le rinnovabili, ma anche l’esplosione dei consumi legati all’intelligenza artificiale, che rischiano di sottrarre risorse preziose ad altri settori strategici.
L’efficienza non basta: il paradosso dell’uso crescente
Le aziende del settore stanno migliorando le tecnologie di raffreddamento e ricorrono all’uso delle energie rinnovabili, ma l’efficienza non è sufficiente. Il cosiddetto paradosso di Jevons ci ricorda che, quando un servizio diventa più economico ed efficiente, il suo uso tende a crescere ancora di più. È lo scenario che già osserviamo con l’AI: ogni progresso tecnico riduce il consumo per singolo prompt, ma il numero di richieste aumenta in modo esponenziale.

L’AI ha fame di energia e sete di acqua, ma le alternative ci sono
Secondo l’Iea, entro il 2030 la domanda di elettricità globale potrebbe “più che raddoppiare” per il boom dell’AI. Sotto stress le risorse idriche: per ogni testo di cento parole scritto da ChatGPT si consuma una bottiglietta d’acqua. Tra le soluzioni i server nel mare.
Scenari futuri: energia, acqua e governance
Se non si interverrà con nuove regole globali e una gestione responsabile delle risorse, evidenzia l’articolo, l’AI rischia di trasformarsi da opportunità a minaccia. L’impatto non riguarda solo le emissioni di CO₂: in aree già colpite dalla scarsità idrica, i consumi dei data center potrebbero acuire tensioni sociali ed economiche. In prospettiva, il futuro dell’AI dipenderà dalla capacità di integrare trasparenza, regole condivise e innovazioni “sobrie”, che mettano al centro l’equilibrio tra progresso tecnologico e sostenibilità planetaria.
Ogni prompt come scelta collettiva
Secondo l'Intelligent computing journal, la potenza di calcolo richiesta per sostenere la crescita dell'AI raddoppia ogni 100 giorni. Nel prossimo decennio, ogni domanda rivolta a una macchina diventerà così una scelta collettiva: un gesto che, se moltiplicato all’infinito, contribuirà a determinare il futuro del pianeta. Dobbiamo imparare a considerare ogni interazione con l’AI non solo come un gesto individuale ma come una decisione che consuma risorse. La sfida sarà trasformare l’uso dell’intelligenza artificiale in un alleato della transizione ecologica, e non in un acceleratore della crisi climatica.
Copertina: Airam Dato-on/Pexels