Tech
Caro chatbot consumi troppo. L’impatto ambientale dell’AI e dei modelli linguistici
Quanta acqua e quanta elettricità servono per alimentare l’intelligenza artificiale? Ecco i numeri del consumo globale dei modelli generativi.
L’intelligenza artificiale – AI – sta rivoluzionando il nostro modo di lavorare e comunicare, ma quanto costa in termini ambientali? Secondo Sam Altman, Ceo di OpenAI, una singola richiesta a ChatGPT consuma circa 0,34 wattora di energia, più o meno quanto una lampadina ad alta efficienza per pochi minuti. Inoltre, ogni query utilizza 0,000085 galloni d’acqua, cioè un quindicesimo di cucchiaino. Ma se questi numeri sembrano irrilevanti su scala individuale, la situazione cambia drasticamente se si moltiplicano per centinaia di milioni di utenti.
Con 800 milioni di richieste giornaliere, il consumo totale raggiunge 272 milioni di wattora al giorno, equivalenti a 272.000 kWh e a 257.000 litri d’acqua. A titolo di paragone, il prelievo idrico annuo italiano per uso potabile supera 9,14 miliardi di metri cubi, ovvero 25 miliardi di litri al giorno. Se confrontiamo questi dati, il consumo di AI appare più contenuto, ma resta significativo per un’unica tecnologia.
L’energia dei modelli linguistici
Una recente ricerca pubblicata su arXiv ha cercato di stimare l’impatto energetico dei grandi modelli linguistici (LLM). Alcuni sistemi avanzati, come ChatGPT-o3 e DeepSeek-R1, possono arrivare a 33 Wh per un prompt lungo, un valore 70 volte superiore rispetto ai modelli più efficienti come GPT-4.1 nano. Se si considera una media di 700 milioni di query giornaliere, l’impatto annuale dell’AI potrebbe essere paragonabile al fabbisogno energetico di 35.000 abitazioni statunitensi, contribuendo a 1,5 milioni di tonnellate di acqua evaporata e a emissioni di CO₂ tali da richiedere un’intera foresta grande quanto Chicago per essere assorbite.
Verso un’AI più sostenibile?
Con la continua crescita delle tecnologie AI, il tema della sostenibilità diventa cruciale. Se la superintelligenza è il futuro, come sostiene Altman, allora l’AI dovrà trovare soluzioni per ridurre il suo impatto ecologico. Intanto, gli sviluppatori stanno già lavorando per ottimizzare i consumi energetici e rendere l’intelligenza artificiale più efficiente. Perché, se oggi consumiamo una lampadina per ogni richiesta, domani potremmo farlo in modo ancora più intelligente (e sostenibile). La sfida è aperta!