L’intelligenza artificiale e il pianeta: un patto da ridefinire

Nel 2024, i data center di tutto il mondo hanno consumato circa l’1,5% dell’energia elettrica globale. Entro il 2030, questa cifra potrebbe raddoppiare, toccando i 945 terawattora annui, potenzialmente superando l’attuale consumo totale del Giappone. La causa principale di questa impennata è l’intelligenza artificiale, e in particolare i modelli generativi che stanno rivoluzionando il modo di lavorare, creare e comunicare. Paradossalmente, la stessa tecnologia che viene proposta come soluzione per la crisi climatica sta diventando parte del problema.

Questo paradigma apparentemente contraddittorio solleva questioni etiche e filosofiche di grande rilievo. Possiamo davvero considerare l’intelligenza artificiale uno strumento per salvare il pianeta, se il suo funzionamento stesso accelera la distruzione ambientale? Dove si colloca la responsabilità individuale e collettiva nell’uso di queste tecnologie? E quali principi guida dovrebbero orientare lo sviluppo di sistemi d’intelligenza artificiale sostenibili?

La doppia faccia dell’intelligenza artificiale verde

L’intelligenza artificiale presenta un profondo dualismo ambientale. Da un lato, gli algoritmi di machine learning vengono impiegati per prevedere eventi climatici estremi, ottimizzare reti energetiche, ridurre emissioni, migliorare la gestione dei rifiuti e monitorare la biodiversità. Secondo l’Agenzia Internazionale per l’Energia (IEA, 2024), l’intelligenza artificiale può accelerare significativamente la transizione energetica attraverso applicazioni che vanno dal miglioramento dell’efficienza energetica alla gestione intelligente delle rinnovabili. Gli scienziati ambientali utilizzano modelli d’intelligenza artificiale per analizzare enormi quantità di dati satellitari, tracciare la deforestazione in tempo reale e identificare specie a rischio d’estinzione.

Dall’altro lato, l’addestramento di modelli di grandi dimensioni richiede risorse computazionali sterminate. Il Grantham Research Institute della London School of Economics (2025) riporta che la potenza di calcolo utilizzata per l’addestramento dell’intelligenza artificiale è aumentata di dieci volte tra il 2018 e il 2022. Ogni singola interrogazione posta a un chatbot comporta un costo energetico che, moltiplicato per miliardi di utenti, genera un impatto significativo: secondo i ricercatori del MIT (Olivetti et al., 2025), la fase di inferenza — quando il modello elabora le richieste — è responsabile dell’80-90% del consumo computazionale totale.

Questo contrasto definisce il “paradosso verde” dell’intelligenza artificiale: una tecnologia che può contribuire alla sostenibilità attraverso il suo impiego, ma che mina gli stessi obiettivi ambientali attraverso la sua esistenza materiale. Come osserva Elsa Olivetti, lead del Decarbonization Mission al MIT, “quando pensiamo all’impatto ambientale dell’intelligenza artificiale generativa, non si tratta solo dell’elettricità consumata quando colleghiamo il computer. Ci sono conseguenze molto più ampie che si estendono a livello di sistema”.

L’impronta materiale dell’intelligenza digitale

Un errore perniciosamente diffuso consiste nel considerare l’intelligenza artificiale come un’entità immateriale, fluttuante nel “cloud”. La verità è che ogni interrogazione ha conseguenze fisiche ben definite. Secondo Climate Impact Partners (2025), l’addestramento di un singolo modello come GPT-3 richiede oltre 1.200 megawattora di elettricità, sufficienti a alimentare circa 120 famiglie americane per un anno.

I data center non consumano energia solo per il funzionamento dei server, ma anche per il raffreddamento delle infrastrutture. Si stima che un data center medio consumi tra i 10 e i 50 megawatt, con temperature che richiedono sistemi di refrigerazione costanti. L’estrazione dei minerali critici necessari per produrre chip e GPU comporta inoltre distruzione ambientale, sfruttamento delle risorse e inquinamento dei territori di estrazione. Secondo ricerche pubblicate su PMC (2025), anche la perdita d’acqua nei sistemi di raffreddamento può stressare gli approvvigionamenti idrici locali.

Il Grantham Research Institute evidenzia un problema ulteriore di trasparenza: i principali provider di modelli d’intelligenza artificiale commerciale non divulgano i dati relativi ai consumi energetici, rendendo difficile per i ricercatori valutare indipendentemente l’impronta ambientale. Questa mancanza di trasparenza costituisce un ostacolo significativo alla gestione responsabile dell’impatto climatico.

L’etica della responsabilità distribuita

La questione etica si complica quando si considera la distribuzione delle responsabilità. Chi è moralmente responsabile dell’impronta carbonica di un modello d’intelligenza artificiale? Le aziende che lo sviluppano e addestrano? Quelle che lo distribuiscono? Gli utenti finali? I governi che ne regolano l’uso?

La risposta non può che essere collettiva. L’intelligenza artificiale costituisce un problema di beni comuni globali: i suoi benefici sono distribuiti, ma anche i suoi costi ambientali ricadono su tutti, e in modo particolarmente grave sulle comunità più vulnerabili. Questo solleva profonde questioni di giustizia ambientale.

Accademici riuniti su Springer (2021) propongono una “terza ondata” dell’etica dell’intelligenza artificiale, che affronti l’emergenza ambientale come problema etico centrale. Le prime due ondate si erano concentrate rispettivamente su scenari futuristici di superintelligenza e su problemi pratici come l’opacità algoritmica, i bias e la privacy. La terza ondata deve mettere lo sviluppo sostenibile al centro del dibattito.

Verso un’intelligenza artificiale sostenibile

Affrontare il dilemma richiede interventi su più livelli. Tecnicamente, è possibile sviluppare modelli più efficienti, ridurre la dimensione dei dataset di addestramento senza perdere prestazioni, ottimizzare le architetture hardware e spostare i data center verso fonti rinnovabili. Alcuni ricercatori propongono framework come “D-CAIS” (Data-Centric AI Sustainability), che offre percorsi scalabili per allineare lo sviluppo dell’intelligenza artificiale agli obiettivi climatici.

Sul piano istituzionale, più di 190 paesi hanno adottato raccomandazioni sull’uso etico dell’intelligenza artificiale che includono la dimensione ambientale. L’Unione Europea e gli Stati Uniti stanno introducendo legislazioni specifiche. Tuttavia, il carattere non vincolante di molti accordi e la velocità di introduzione sul mercato rispetto ai tempi legislativi rappresentano sfide significative.

Sul piano individuale emerge una nuova forma di etica ambientale digitale. Ogni interrogazione a un chatbot comporta una scelta implicita: stiamo utilizzando risorse planetarie per questa attività? L’obiettivo non è demonizzare l’uso dell’intelligenza artificiale, ma promuoverne un impiego consapevole, distinguendo tra utilizzi che generano valore sociale significativo e quelli meramente strumentali.

Conclusione: il patto da ridefinire

L’intelligenza artificiale ci offre potenzialità straordinarie per affrontare la crisi climatica, ma richiede un patto chiaro sui termini del suo impiego. Non si tratta di rifiutare la tecnologia, ma di svilupparla secondo principi di sostenibilità ambientale, trasparenza e giustizia climatica. Solo così l’intelligenza artificiale potrà davvero essere un alleato affidabile nella costruzione di un futuro sostenibile, anziché un’ulteriore minaccia per il pianeta che dovrebbe aiutare a salvare.

Share this content:

Sono Emanuela Gugnelli, filosofa con il vizio dell'epistemologia. Dal tempo della mia tesi sulla storia delle reti neurali, studio l'Intelligenza Artificiale non solo nelle sue applicazioni concrete, ma come motore di un vero e proprio mutamento epocale. Su Epistemica mi interrogo sulle sue conseguenze etiche e sociali. Quando non traffico con api, token, json, n8n e OpenClaw, mi trovate a pedalare in bicicletta o nei prati incontaminati a raccogliere erbe spontanee da cucinare. (ovviamente quella in foto non sono io :-D)

Commento all'articolo