top of page

Ma l'AI è sostenibile?

  • SR
  • 27 apr
  • Tempo di lettura: 5 min

Ma l'AI è sostenibile?
Ma l'AI è sostenibile?

Il paradosso prometeico dell’intelligenza artificiale

Nel cuore dell’era digitale, l’intelligenza artificiale si staglia come una nuova epifania prometeica, capace di emancipare l’uomo da compiti ripetitivi e cognitivamente faticosi, offrendogli accesso a un sapere potenzialmente illimitato. Tuttavia, come insegna il mito, ogni dono celeste reca in sé una condanna terrena. Così l’AI, nella sua apparente immaterialità, cela un’impronta ecologica concreta, talvolta devastante. La questione, dunque, è tanto attuale quanto urgente: ChatGPT è davvero sostenibile?


Il prezzo invisibile della conversazione digitale

Un singolo scambio testuale con ChatGPT – apparentemente innocuo, leggero, evanescente – può comportare l’attivazione di interi sistemi di calcolo distribuiti, il raffreddamento di server a temperature glaciali, il dispendio di risorse idriche ed elettriche. Secondo recenti studi, una risposta di sole due parole può consumare tra i 40 e i 50 ml d’acqua, un’unità di misura che diventa macroscopica se moltiplicata per le miliardi di interazioni quotidiane.

Sam Altman, CEO di OpenAI, ha rivelato che le formule di cortesia – "grazie", "prego", "buona giornata" – rivolte ai chatbot costano all’azienda decine di milioni di dollari l’anno in termini computazionali. Un gesto umano, educativo, empatico – insegnato fin dall’infanzia – si trasforma così in un fattore ambientale rilevante. E se l’umanizzazione delle macchine migliora l’esperienza d’uso, ne aggrava però il carico energetico e il bilancio ecologico.


I colossi nascosti dietro una frase

Dietro ogni frase generata da ChatGPT, si cela una vera e propria metropoli elettronica: data center immensi, disseminati nei deserti del Nevada o nelle brughiere inglesi, alimentati da chilowattora incessanti e raffreddati da ettolitri d’acqua evaporata. Secondo il CEO di Nvidia, Jensen Huang, la dimensione di questi centri dati raddoppierà nei prossimi cinque anni, trascinando con sé una domanda energetica globale in crescita del 160% entro il 2030 (fonte: Goldman Sachs).

Il progetto Blackstone in Northumberland, da 13 miliardi di dollari, rappresenta solo uno dei tanti esempi dell’insaziabile fame di calcolo dell’AI generativa. Un appetito che divora elettricità, spazio, silicio e acqua.


Una mail, mezzo litro d’acqua: l’AI e la crisi idrica

L’Università della California Riverside ha stimato che una semplice e-mail di 100 parole generata con ChatGPT-4 consumi oltre mezzo litro d’acqua. Se solo un decimo della forza lavoro americana inviasse settimanalmente una mail con questo strumento, si raggiungerebbe un consumo annuo pari al fabbisogno idrico di un giorno e mezzo dell’intero Rhode Island (circa un milione di abitanti).

E l’acqua utilizzata nei data center non è solo “presa in prestito”: parte viene evaporata nei processi di raffreddamento, parte viene riciclata solo per un numero limitato di cicli prima di essere scaricata, spesso alterata nella composizione.


Data center: l’infrastruttura invisibile che fa funzionare tutto

Senza i data center, scomparirebbero in un batter d’occhio tutti i dati contenuti in smartphone e computer. Andrebbero in blackout i servizi basati sull'intelligenza artificiale che vivono di big data, inclusi streaming, ricerca web e social media. Il mondo digitale, come lo conosciamo, andrebbe in crash. Eppure, questi centri dati sono infrastrutture vitali per la nostra società, tanto fondamentali quanto pericolose. Il loro impatto ecologico è devastante: sono energivori e assetati di acqua.

Secondo recenti studi, i grandi data center arrivano a consumare energia quanto un’intera nazione. Quando chiediamo a Google o ChatGPT un’informazione, è bene sapere che le loro intelligenze si sono addestrate grazie a questi enormi centri. I data center non solo alimentano motori di ricerca e assistenti virtuali, ma anche transazioni bancarie, telecomunicazioni, e-commerce, sistemi sanitari e governativi. Se l’aspetto del consumo energetico è l’elemento più noto, quello idrico è meno conosciuto, eppure, tra il 2017 e il 2022, l’intelligenza artificiale ha aumentato del 6% il consumo annuo di acqua.

Il motivo di questa sete insaziabile? I server dei data center lavorano a temperature elevate, circa 45°, e devono essere costantemente raffreddati per evitare danni. Il processo di raffreddamento richiede grandi quantità di acqua. In molti data center, il metodo più comune è quello delle torri di raffreddamento, che sfruttano l’evaporazione per abbassare la temperatura. Sebbene il sistema sia altamente efficace, comporta un consumo significativo di acqua, che viene riutilizzata solo parzialmente.


Emissioni di CO₂: l’altro volto della potenza computazionale

C’è da considerare che l'energia consumata non è mai neutra: produce gas serra, e la carbon footprint dell’AI varia sensibilmente a seconda del mix energetico del Paese in cui viene generata. Negli Stati Uniti, patria di molte startup AI e ancora pesantemente dipendenti dai combustibili fossili, il carico ambientale è elevatissimo.

La University of Massachusetts Amherst stima che l’addestramento di un singolo modello AI possa generare fino a 300 tonnellate di CO₂, equivalenti all’intero ciclo di vita – produzione, uso, rottamazione – di cinque automobili percorse per 200.000 km.


AI vs essere umano: chi consuma di più?

Il confronto tra AI e uomo, in termini energetici, è affascinante quanto controverso. Secondo un provocatorio studio pubblicato su Scientific Reports, una AI può emettere da 130 a 1500 volte meno CO₂ rispetto a un essere umano per la produzione di un testo complesso, e da 310 a 2900 volte in meno per un’immagine.

Il motivo? L’AI opera in pochi secondi, mentre un umano può impiegare ore o giorni per completare lo stesso compito. Inoltre, nel computo energetico umano rientrano la produzione del cibo, il riscaldamento del luogo di lavoro, le spese educative, l’uso del trasporto. Insomma, anche noi siamo energivori, seppur in modo diverso.


A completare il quadro, si aggiunge l’impatto dell’hardware: GPU, schede madri, chip specializzati richiedono l’estrazione di minerali rari, processi industriali inquinanti, trasporti intercontinentali. La rapida obsolescenza tecnologica genera tonnellate di rifiuti elettronici, spesso non riciclabili, che avvelenano suoli e acque.

L’AI, affamata di dati, entra così in un circolo vizioso: più apprende, più consuma, più si sviluppa, più inquina. Un Uroboro digitale, dove l’intelligenza alimenta il proprio sviluppo divorando le risorse del pianeta.


C’è la luce in fondo al tunnel?

Non tutto è perduto. La sostenibilità dell’AI è ancora raggiungibile, ma richiede un’azione concertata e lungimirante:

  • Efficientamento degli algoritmi e riduzione della complessità computazionale;

  • Rinnovabili e innovazione nei sistemi di raffreddamento;

  • Economia circolare per la produzione e lo smaltimento dell’hardware;

  • Trasparenza ambientale da parte delle aziende tecnologiche;

  • Educazione digitale e consapevolezza d’uso da parte degli utenti.


Solo un approccio etico e sistemico, in grado di integrare innovazione e responsabilità, potrà disinnescare la bomba ecologica nascosta nell’architettura dell’intelligenza artificiale

L’AI può essere considerata un dono. Ma come il fuoco di Prometeo, può illuminare o distruggere. Sta a noi decidere se utilizzare ChatGPT e i suoi simili per costruire un mondo più efficiente e consapevole, oppure lasciare che diventino motori invisibili di distruzione ambientale.

Nella dialettica tra progresso e limite, tecnologia e natura, efficienza e impatto, si gioca il futuro non solo dell’AI, ma dell’intero pianeta. L’umanità ha ancora il potere di scegliere. La vera intelligenza – artificiale o umana – sarà quella che saprà scegliere con saggezza, giustizia e lungimiranza.



Commenti


bottom of page