C’è un crescente dibattito online che suggerisce che se vuoi salvare il pianeta, dovresti smettere di essere gentile con la tua IA. La logica è semplice: ogni parola in più, come “per favore” o “grazie”, richiede più potenza di calcolo, che a sua volta consuma più elettricità.
Sebbene sia tecnicamente vero che i suggerimenti più lunghi richiedono una maggiore elaborazione, questa attenzione all’“etichetta dei suggerimenti” è una distrazione dalle sfide ambientali molto più grandi e sistemiche poste dall’intelligenza artificiale.
Il mito della richiesta “educata”.
È vero che i modelli di intelligenza artificiale elaborano il testo in modo incrementale. Ogni parola aggiuntiva richiede una piccola quantità di calcoli aggiuntivi. Sam Altman, CEO di OpenAI, ha osservato che, su scala di miliardi di richieste, questi microcosti si sommano a spese operative significative.
Tuttavia, l’idea che la cortesia individuale influisca sul pianeta è un’esagerazione. L’energia utilizzata per elaborare qualche parola in più è trascurabile rispetto all’enorme quantità di energia necessaria per far funzionare i data center stessi. Il vero problema non è il modo in cui formuliamo le nostre domande, ma quanto utilizziamo questi sistemi.
Perché l’intelligenza artificiale è diversa dal software tradizionale
Per comprendere l’impatto ambientale, dobbiamo distinguere l’intelligenza artificiale dai servizi digitali che utilizziamo da decenni.
- Servizi tradizionali: quando riproduci in streaming un video o apri un documento, il costo energetico viene in gran parte “caricato anticipatamente”. I dati esistono già; il sistema lo sta semplicemente recuperando e consegnando.
- Intelligenza Artificiale: l’intelligenza artificiale opera tramite inferenza. Ogni volta che si pone una domanda, il modello esegue un passaggio computazionale nuovo e intenso per generare una risposta unica.
Poiché ogni query innesca nuovi calcoli, l’intelligenza artificiale si comporta meno come una biblioteca digitale e più come una infrastruttura pesante. L’utilizzo si traduce direttamente e immediatamente in domanda di energia.
L’impronta crescente: energia, acqua e terra
La portata di questa domanda si sta spostando da marginale a massiccia. L’impronta ambientale dell’intelligenza artificiale non riguarda solo l’elettricità; è una sfida multi-risorsa:
- Elettricità: l’Agenzia internazionale per l’energia avverte che la domanda di elettricità dei data center potrebbe raddoppiare entro la fine di questo decennio.
- Acqua: i data center richiedono grandi quantità di acqua per raffreddare l’hardware informatico ad alta densità.
- Terreno e materiali: la costruzione e la manutenzione dell’infrastruttura fisica richiedono un utilizzo significativo del territorio e delle materie prime.
Questi impatti sono spesso avvertiti a livello locale. Ad esempio, in paesi come la Nuova Zelanda, che fa molto affidamento sull’energia idroelettrica rinnovabile, i grandi data center possono mettere a dura prova la rete locale. Durante gli anni di siccità, quando i livelli dell’acqua sono bassi, l’elettricità utilizzata per far funzionare i server è elettricità che non può essere utilizzata per altri bisogni sociali essenziali.
Un cambio di prospettiva: dal software all’infrastruttura
Il dibattito attuale spesso tratta l’intelligenza artificiale come un servizio digitale “immateriale”, qualcosa che esiste in un cloud, staccato dal mondo fisico. Questo è un errore. L’intelligenza artificiale è una presenza fisica che impone un “carico metabolico” sui nostri sistemi esistenti.
Quando osserviamo l’intelligenza artificiale attraverso una “lente di sistema”, vediamo che energia, acqua e terra sono strettamente collegate. Un picco nella domanda di intelligenza artificiale non influisce solo sulla rete elettrica; influisce sulla disponibilità dell’acqua e sulla pianificazione dell’uso del territorio.
“Concentrarsi su piccole modifiche comportamentali, come il modo in cui vengono formulate le istruzioni, distrae dai reali problemi strutturali.”
Conclusione
L’ossessione se dovremmo essere educati nei confronti di ChatGPT è un segnale che le persone percepiscono intuitivamente che l’intelligenza artificiale ha un’impronta fisica, anche se non hanno il linguaggio tecnico per descriverla. Per gestire questa tecnologia in modo sostenibile, dobbiamo superare la “pronta etichetta” e iniziare a integrare l’infrastruttura dell’intelligenza artificiale nella nostra più ampia pianificazione globale per l’energia, l’acqua e l’uso del territorio.
























