Intelligenza artificiale si nasconde una macchina insaziabile di consumo Energetico
Scritto da Agostino Agamben il . Pubblicato in Economia e Politica.
A cura di Agostino Agamben
Mentre l’IA si espande in ogni ambito della vita umana, alimentando promesse di efficienza, progresso e automazione, cresce dietro le quinte una voragine di consumo elettrico, risorse materiali e impatti ambientali nascosti. Dall’euforia dell’innovazione al collasso delle reti, dalle miniere di litio ai data center nucleari, si delinea un nuovo paesaggio di squilibri globali, tensioni politiche e sfide ecologiche che nessun algoritmo potrà risolvere da solo. In gioco non è solo il futuro della tecnologia, ma la sostenibilità stessa del pianeta che la ospita.
Quando l’orizzonte si allarga e l’uomo comincia a percepire l’IA non come semplice strumento ma come rete permanente che lambisce ogni settore dell’esistenza, è allora che le crepe nel tessuto energetico si fanno visibili come vene sotto pelle. Non c’è inizio netto: la questione emerge in frammenti, in guizzi, in segnali che confluiscono in un paesaggio di vincoli, tensioni, responsabilità sfuggenti. L’IA, che avrebbe dovuto alleviare il peso del calcolo, diventa essa stessa fardello, impegno originario di ogni infrastruttura, ogni linea elettrica, ogni pila atomica che la sostiene.
Non è un’esagerazione dire che l’energia è la sostanza segreta dell’IA. Come l’aria lo è per il respiro. Senza energia, l’algoritmo tace, il modello non apprende, il query non risponde, la previsione non si compie. Ma questa dipendenza non è neutra. Ogni volta che apriamo una sessione di ChatGPT, ogni volta che navighiamo su una piattaforma che fa uso di modelli predittivi, stiamo alimentando un “fuoco invisibile”: non ardente come la fiamma, ma glaciale come il data center che brulica al buio, la cui memoria brucia corrente elettrica, che divampa sotto il silenzio dei processi.
L’atto di delegare il futuro all’algoritmo implica che il futuro consumi. Come se ogni progresso tecnologico rinnovasse la sua propria dipendenza. E la dipendenza è un vincolo. Un nodo che tira. Un’aggiunta al debito energetico che la Terra porta già, tra invecchiamento delle reti, reti obsolete, trasmissioni fragili, perdite invisibili.
Quando Amazon, tramite AWS, acquista un data center nucleare – o un centro che attinge direttamente da una centrale – non sta soltanto costruendo capacità di calcolo: sta costruendo, o acquistando, una relazione di potere con la natura dell’energia. Sta scegliendo che tipo di energia mantener viva, che tipo di energia sacrificare. Sta ridefinendo la soglia fra energia pulita e energia gestita, fra dipendenza da risorse rinnovabili e da merci atomiche o fossili.
All’esterno, questa mossa appare come ambiziosa espansione, strategia di mercato, investimento. Ma dentro, al cuore della macchina, pulsa un interrogativo: chi decide il prezzo dell’energia necessaria? Quanto potere ha il produttore di calcolo su chi produce energia? E dietro al produttore, quale società accetta di pagare il prezzo ecologico, climatico, materiale di questo consumo?
I dati recenti non sono meri prospetti astratti, ma segnali che mostrano una frattura. Le proiezioni stimano che entro il 2027 il consumo globale di elettricità legato all’IA potrebbe crescere del 64%, raggiungendo i 134 terawattora all’anno. Questo è un numero che rivela la dimensione del possibile. Un numero che peserà sul groppo delle società contemporanee come un macigno invisibile. È l’equivalente del consumo annuale di interi paesi, come quei paesi che noi guardiamo da lontano come se il loro destino energetico fosse separato dal nostro.
Non possiamo separarlo. Perché l’elettricità, trasportata su lunghe catene, convertita, dispersa, è sempre un fenomeno fisico che attraversa frontiere: produce emissioni, richiede risorse minerarie – rame, silicio, litio – produce rifiuti, impatti idrici, termici, politici. Il data center è un nodo, ma anche un terminale ambientale.
Quando un utente pone una domanda a ChatGPT, si attiva una catena: richiesta, rete, server, GPU/TPU, raffreddamento, dissipazione di calore. Un atomo digitale genera un’onda materiale. Se quella domanda è banale, il sistema consuma comunque, perché le unità hardware restano attive, i processori scalano, le reti trasmettono. Se la domanda è frequente, il consumo moltiplica. Se la domanda è gigantesca, l’infrastruttura deve crescere, e il ciclo si autoalimenta.
Sascha Luccioni – e non è casuale che “dato” in latino significhi “ciò che è consegnato”, “imposto”, “dato” – osserva che solo per rispondere a un numero fra 50 e 200 milioni di query, a seconda delle dimensioni del modello, il consumo energetico può raggiungere quello richiesto per addestrare lo stesso modello. Cioè: la vita operativa dell’IA è essa stessa una fatica titanica – non meno dispendiosa dell’atto originario di creazione del modello. Addestrare, sì; usare, sì; preservare, ampliare, rispondere, sì: ogni fase grava sull’energia.
Le reti elettriche, già cariche di tensioni, crepe, instabilità, diventano arterie fragili. Negli Stati Uniti – solo per fare un esempio non neutro – il 70% delle linee di trasmissione si avvia alla fine del proprio ciclo vitale, collassando fra i 50 e gli 80 anni. Queste infrastrutture non sono meri manufatti: sono corpi materiali che riposano sul tempo, sull’obsolescenza, sulle perdite. Linee che disperdono energia, che si surriscaldano, che cadono sotto tempeste, che sono vulnerabili. Un blackout diventa non eccezione ma possibilità quotidiana.
E se anche le fonti rinnovabili avanzano, lo fanno nella cornice dell’urgenza. Il vento, il sole, le biomasse: potenzialmente rigogliose, ma insufficienti a reggere l’urto della crescita esponenziale. Perché la crescita dell’IA non è lineare, ma esponenziale; non modale, ma cumulativa. Ogni modello avanzato, ogni GPU più potente, ogni centro dati aggiuntivo, ogni accesso remoto aumenta la domanda come un’onda che non si appiattisce.
Così succede che il carbone, resurrezione oscura, ritorna come scelta pratica, come ponte, come opzione economica. Perché la necessità seduce. Perché entro certi costi, fra sfruttamento immediato e debito climatico, si sceglie l’immediato. Si sceglie ciò che costa meno ora, anche se distrugge dopo. La sostenibilità diventa dichiarazione, mentre l’ossessione è sul ROI, sul margine, sul throughput.
Microsoft lodando l’energia rinnovabile, ma constatando un aumento del 29% delle emissioni per la costruzione dei data center AI, mostra che la retorica verde è spesso una veste sovrastrutturale. E non è solo ipocrisia: è sintomo di una frattura interna fra ciò che vogliamo credere e ciò che stiamo realmente facendo. È come se il futuro che proclamiamo sia già un distopico presente, almeno sul piano materiale.
Se l’efficienza diventa parola d’ordine, essa assume il carattere di un imperativo morale – come se ogni risparmio fosse un atto di virtù, ogni chip efficiente una redenzione. Ma l’efficienza è spesso adagiata sul compromesso: sul silenzio delle conseguenze, sul sacrificio delle alternative. È un modo economico di far sì che l’aspettativa – quella di un futuro sempre più potente, intelligente, automatizzato – non sia messa in discussione.
I chip TPU, i nuovi architetture GPU come Blackwell di Nvidia, i processori dedicati di Google: tutti promettono riduzioni enormi di consumo. Venticinque volte meno energia per operazione, dicono alcuni. Ma cosa significa realmente? Cosa c’è dietro queste promesse? Quali condizioni economiche, quali estrazioni minerarie, quali impatti idrici, quali fossili nascosti? Quale costo umano, sociale, ecologico?
Quando si dice “ridurre il consumo”, si parla di ridurre la bolletta elettrica, ma non sempre si parla di ridurre l’impronta materiale: dalle miniere di rame ai giacimenti di litio; dallo smaltimento dei rifiuti elettronici ai processi di raffreddamento che consumano acqua; dalla logistica delle materie prime che attraversano continenti – spesso quelli meno potenti nel sistema globale – fino alla costruzione dei centri dati stessi, alle infrastrutture stradali, alla memoria dissipata nei backup. Ridurre una parte non significa eliminare il tutto. È un taglio chirurgico in un organismo che continua a crescere.
E qui l’IA appare anche come “risposta” alla crisi che essa stessa contribuisce a creare. Le aziende investono nell’IA per prevedere guasti, per ottimizzare reti, per ridurre perdite invisibili: fughe di calore, dispersioni elettriche, inefficienze nascoste. È un loop. Un margine di speranza, certo. Ma non basta soltanto prevedere: bisogna che tale previsione si traduca in decisioni politiche, in regolamenti, in limiti materiali, in scelte collettive. Altrimenti diventa mero cosmetico ambientale.
C’è un paradosso che percorre tutto questo: l’IA che osserva, misura, anticipa, controlla rischi, interviene; e al contempo l’IA che genera nuovi rischi, nuovi consumi, nuove vulnerabilità. La sorveglianza energetica tecnologica è insieme strumento e fonte di domanda. Così come il fuoco è ciò che illumina e ciò che divampa.
Quando guardiamo al mercato, agli investitori – come Chris Buchbinder – vediamo che le logiche finanziarie non sono estranee a queste dinamiche. L’orizzonte dell’investimento, la promessa del profitto, la curva J della produttività: tutte strutture che spingono all’accelerazione. Ma l’accelerazione ha un limite materiale. È facile parlare di ritorni a lungo termine, di crescita, di profitti futuri; più difficile fare i conti con la spossatezza della materia, con il vincolo delle reti, con le emissioni irreversibili che deflagrano nel presente.
Investitori che sopravvalutano l’impatto a breve termine ignorano spesso il debito energetico che si accumula: infrastrutture sottodimensionate, reti fragili, fonti intermittenti, instabilità climatica che danneggia dighe, pala eolica, pannello solare. Tutto questo versa nel conto – un conto che nessun algoritmo può oscurare del tutto.
L’anticipazione del ritorno economico condiziona la strategia: se entro pochi anni non si vedono risultati concreti, si ritiravano risorse; e allora molte imprese che investono oggi in infrastrutture legate all’IA si troveranno a dover giustificare non solo i profitti mancati, ma anche il peso ecologico, la fragilità delle promesse fatte.
Un’altra dimensione che spesso sfugge: le risorse umane. Il talento, gli ingegneri, gli esperti di dati, le figure che traducono modelli in servizi: anche queste figure hanno un costo energetico – non tanto in elettricità, ma in formazione, mobilità, infrastruttura cognitiva. Un ecosistema umano che consuma, si sposta, produce – anch’esso parte integrante del sistema energetico globale.
E c’è infine la questione politica: chi governa questa trasformazione? Chi decide i parametri, i limiti, le concessioni? In un mondo dove l’IA è sempre più diffusa, il dissenso ecologista non può essere relegato a opinione: diventa nodo di contesa democratica. La rete elettrica è bene comune, la gestione delle emissioni è decisione collettiva, la scelta delle fonti è questione di giustizia tra paesi, tra territori, tra generazioni.
La sostenibilità energetica non è solo un problema tecnico; è un problema etico e politico. Scegliere tra nucleare, carbone, rinnovabile, scegliere di costruire grandi data center oppure distribuirne, scegliere modelli di efficienza che non sacrificano ecosistemi locali, evitare che le zone povere diventino discariche energetiche. Tutto questo richiede visione, limiti, soglia. Serve che si riconosca che l’energia non è “merce” come un’altra, che non si può mercificare fino all’estremo, che il suolo, il paesaggio, l’acqua, l’aria hanno diritti, che il futuro non sia solo ciò che si può calcolare, ma ciò che si può custodire.
La minaccia che l’Intelligenza Artificiale pone all’equilibrio energetico globale non è un disastro certo ma un orizzonte possibile – che cresce fra decisioni normative, investimenti, consapevolezza. Potrebbe emergere una nuova era in cui l’IA sia integrata in modo sostenibile: modelli più piccoli, specializzati; data center distribuiti e rinnovabili; governance partecipata dell’energia; trasmissione efficiente e reti resilienti; investimento in infrastrutture che non cedano al primo disastro climatico.
Ma perché ciò accada, occorre rovesciare alcune assunzioni: non che “sempre più IA” sia necessariamente progresso, non che “sempre più calcolo” equivalga a un futuro migliore; non che efficienza sia sinonimo di redenzione. In verità, l’efficienza può diventare un velo che copre l’ingiustizia, la dipendenza, lo spreco sistemico.
Rallentare, scegliere, limitare. Non accondiscendere al mito dell’espansione illimitata, ma porre limiti materiali – limiti di consumo, limiti di emissioni, limiti di infrastrutture. Recuperare la misura. Recuperare la soglia fra ciò che serve e ciò che è eccesso.
E nel recupero della misura c’è forse un’eco antica: quella dei filosofi che chiedevano non “quanto possiamo fare” ma “quanto dobbiamo fare”. Non “quante operazioni al secondo” ma “quale vita stiamo costruendo”. Non “quanti modelli addestrati” ma “quali modelli utili, quali modelli che non divorino”.
Così, l’IA non dev’essere solo minaccia, ma monito. Non per rinunciare, ma per ricordare che ogni progresso chiede una resa, che ogni innovazione chiede una vigilanza, che ogni promessa tecnologica è promessa di consumo. E forse – forse – la salvezza non è nel calcolo supremo, ma nella cura minima: delle reti, delle linee, delle fonti, delle acque, del silenzio che precede il bit.