Frasi come “per favore” o “grazie” rivolte a un’intelligenza artificiale come ChatGPT sembrano innocue, ma secondo studi recenti, potrebbero contribuire a un impatto ambientale più ampio di quanto immaginiamo.

L’intelligenza artificiale e il costo nascosto delle parole
Ogni volta che scriviamo un messaggio a ChatGPT, il sistema scompone il testo in token, unità linguistiche che vengono elaborate per fornire una risposta. Più il messaggio è lungo e articolato, più token vengono generati, aumentando così la richiesta di potenza di calcolo. Questo processo implica un maggiore consumo energetico, e sì, anche una semplice frase di cortesia può contribuire a far crescere questi numeri.
Il CEO di OpenAI, Sam Altman, ha ironicamente dichiarato che le espressioni di gentilezza degli utenti sono costate all’azienda “decine di milioni di dollari” in risorse computazionali. Ma dietro la battuta si nasconde una verità tecnica: ogni parola in più comporta un carico extra per le GPU, i potenti processori che fanno girare l’intelligenza artificiale.
Quanto consuma davvero una chat con l’IA?
Secondo Tom’s Hardware, ogni query inviata a ChatGPT consuma in media 0,3 wattora (Wh) di energia elettrica. Se moltiplichiamo questo dato per milioni di interazioni giornaliere, il bilancio energetico diventa impressionante. I data center, che ospitano i server delle IA, sono tra i principali consumatori di energia del settore tecnologico. L’Agenzia Internazionale per l’Energia stima che entro il 2030 questi centri potrebbero arrivare a usare fino a 945 terawattora (TWh) all’anno.
E non è tutto: per raffreddare i server e prevenire il surriscaldamento, viene utilizzata una notevole quantità di acqua. Secondo l’Università della California, una risposta composta da appena due o tre parole può richiedere tra i 40 e i 50 ml d’acqua.
Essere gentili migliora davvero le risposte?
La gentilezza non è del tutto superflua. Una ricerca della Cornell University ha dimostrato che i comandi cortesi possono portare a risposte più accurate e complete da parte dell’IA, soprattutto in inglese. Tuttavia, questo effetto varia da lingua a lingua. In Giappone, ad esempio, la cortesia linguistica è più efficace, mentre in altri contesti culturali può confondere il modello.
Le IA, infatti, non comprendono il significato delle parole come farebbe un essere umano: rispondono sulla base dei dati su cui sono state addestrate, replicando schemi linguistici e culturali appresi.
La soluzione? Equilibrio tra efficienza e cortesia
A fronte di questi dati, sorge un dilemma: essere cortesi o efficienti? La risposta degli esperti è chiara: bisogna trovare un punto di equilibrio. Evitare frasi inutilmente prolisse come “Potresti gentilmente spiegarmi…” e optare per comandi diretti come “Spiegami come funziona la fotosintesi” può ridurre l’impatto ambientale, senza compromettere la qualità delle risposte.
Nel frattempo, aziende come OpenAI stanno lavorando su modelli più sostenibili ed efficienti, ma l’attenzione degli utenti rimane fondamentale.
Cortesia digitale e sostenibilità: un nuovo paradigma
Questo dibattito non riguarda solo le buone maniere digitali, ma tocca una questione cruciale: come conciliare innovazione tecnologica e responsabilità ambientale. Con strumenti come ChatGPT sempre più presenti nella nostra quotidianità, è fondamentale comprendere il loro impatto, per fare scelte consapevoli sia a livello individuale che collettivo.