
Il titolo potrebbe trarre in inganno, quindi partiamo subito con una precisazione: non parleremo di vere e proprie bollette elettriche, né di come le intelligenze artificiali possano diventare soggetti attivi nel gestirle. Di cosa parleremo allora?
Affrontiamo oggi un tema solo sfiorato in un nostro precedente appuntamento: l’impatto ambientale di ChatGPT, in particolare il consumo energetico legato al suo utilizzo. Negli ultimi settimane, infatti, sono circolate notizie allarmanti: secondo alcune stime, 100 richieste al chatbot più celebre degli ultimi anni consumerebbero quanto un microonde acceso per 15-30 minuti; l’addestramento di GPT-4, il penultimo modello, avrebbe richiesto circa 1.300 Mwh (Mega Wattora), equivalente al consumo annuo di una piccola cittadina; un milione di richieste corrisponderebbero all’energia necessaria per alimentare oltre 300 frigoriferi per un anno; infine, 20-30 domande al chatbot potrebbero richiedere fino a un litro d’acqua per raffreddare i server. Inevitabilmente, questi numeri hanno sollevato preoccupazioni, specie considerando il già fragile stato di salute del nostro pianeta.
A riportare un po’ di serenità ci ha pensato Sam Altman, CEO di OpenAI, creatrice di ChatGPT (Link Ansa). Secondo Altman, una singola richiesta consumerebbe in realtà solo 0,34 Wh: l’equivalente di un forno acceso per pochi secondi. In termini idrici, si tratterebbe di circa un quindicesimo di cucchiaino d’acqua usato per il raffreddamento dei server. Per fare un confronto, guardare un video in HD consuma tra i 50 e i 100 Wh, mentre ricaricare uno smartphone richiede dai 5 ai 10 Wh. Dati più rassicuranti, certo, ma che non tengono conto dell’effetto moltiplicatore su scala globale: ogni individuo carica il telefono una volta al giorno, ma può porre decine di domande a ChatGPT nel medesimo arco di tempo. Inoltre, nelle dichiarazioni di Altman sembra mancare un riferimento esplicito ai costi energetici dell’addestramento del modello, una fase cruciale per il suo corretto funzionamento e tra le più costose, in termini energetici, dell’intero processo.
Due cose sono chiare. La prima è che OpenAI – e più in generale tutte le aziende che operano nel settore dell’intelligenza artificiale – dovranno impegnarsi per ridurre al minimo l’impatto ambientale delle proprie tecnologie. I numeri ipotizzati all’inizio dell’articolo, se confermati su vasta scala, rappresenterebbero un costo insostenibile per il nostro ecosistema. La seconda è che anche i cittadini devono essere consapevoli del peso energetico delle proprie “azioni digitali”. Usare ChatGPT con criterio è importante, così come lo è per qualsiasi altra tecnologia. Piccoli gesti, come evitare richieste superflue, domande duplicate o frasi di circostanza (“grazie”, “per favore” e simili), possono contribuire a contenere il consumo energetico complessivo. Se da un lato queste formule possono sembrare “cortesi”, dall’altro generano calcoli inutili che si traducono in sprechi evitabili. In definitiva, il futuro dell’IA e il suo impatto ambientale dipenderà anche dal nostro senso di responsabilità.