L'uso crescente di chatbot avanzati come ChatGPT di OpenAI ha sollevato interrogativi sul loro impatto ambientale, e in particolare sul consumo energetico. Secondo alcune ricerche, l'evidente voracità associata a queste tecnologie è inopportunamente amplificata. Grazie a uno studio recente condotto da Epoch, sono stati ottenuti dati più precisi sul reale consumo energetico del chatbot.
Indice dei contenuti
Il consumo reale di energia di ChatGPT
Da anni si sente parlare del consumo eccessivo di energia da parte delle piattaforme di intelligenza artificiale, creando un'impressione di rinuncia alla sostenibilità. Tuttavia, Epoch ha effettuato una valutazione dettagliata riguardo a quanto realmente consuma ChatGPT per elaborare le richieste. Stando ai dati, il chatbot impiega circa 3 wattora per fornire una risposta ad una singola domanda. Si tratta di un valore 10 volte superiore rispetto a quello richiesto da una ricerca su Google.
Nonostante questa cifra possa sembrare allarmante, Epoch ha chiarito che tale stima potrebbe essere gonfiata. Attraverso analisi più approfondite, è emerso che il modello GPT-4o consuma in media circa 0,3 wattora per elaborare una query. Sorprendentemente, questo numero risulta inferiore a quello di alcuni elettrodomestici comuni, portando a una riflessione su quanto sia veramente energivoro l'utilizzo della tecnologia AI.
Un confronto con le spese domestiche
Joshua You, analista dell'istituto di ricerca Epoch, sottolinea che il consumo energetico di ChatGPT non deve essere considerato un problema isolato. Se messo a confronto con altre spese energetiche domestiche, come il riscaldamento e il raffreddamento degli ambienti, o l'uso di dispositivi elettronici che possono essere presenti in ogni casa, il consumo di energia del chatbot appare decisamente più contenuto.
In effetti, il ragionamento si sposta su come la tecnologia contribuisca a determinare un'impronta ecologica complessiva. Nonostante la difficoltà di reperire dati definitivi forniti da OpenAI riguardo ai consumi energetici complessivi, le evidenze presentate da Epoch pongono in discussione l'idea che i chatbot rappresentino le principali fonti di spreco energetico.
Le preoccupazioni per il futuro del consumo energetico
Nonostante i dati positivi emersi dalla ricerca, You sembra non nutrire eccessiva fiducia riguardo al futuro. Secondo le sue analisi, il consumo di energia legato alle intelligenze artificiali è destinato ad aumentare in parallelo con la loro evoluzione e il potenziamento delle loro funzionalità.
OpenAI ha già annunciato significativi investimenti per costruire nuovi data center dedicati all'AI. Questa tendenza solleva interrogativi preoccupanti, considerando che diversi partner dell'azienda stanno già contribuendo a questi progetti con investimenti nell'ordine di miliardi di dollari. Allo stesso modo, altre realtà come Meta hanno scelto di avvalersi di forniture energetiche nucleari per sostenere le loro infrastrutture, mostrando la crescente necessità di risorse energetiche elevate nelle operazioni tecnologiche.
Le sfide nel contesto ambientale attuale
Le questioni legate al consumo di energia nell'era dell'intelligenza artificiale alimentano un continuo dibattito nel panorama attuale. In un contesto in cui molte politiche si stanno orientando verso la sostenibilità e l'efficienza energetica, la crescente domanda di energia delle tecnologie avanzate potrebbe rappresentare un paradosso. Ci si chiede se l'accelerazione dell'innovazione in questo settore possa coesistere con gli obiettivi di riduzione dell'impatto ambientale.
A fronte di questo scenario, è cruciale monitorare e valutare il reale costo energetico delle nuove tecnologie, riconoscendone sia i benefici che le criticità. L'analisi di Epoch offre spunti utili per comprendere meglio come governare l'innovazione senza compromettere gli sforzi verso un futuro più sostenibile.