Mennyi energiát használnak az AI-chatbotok?

Mennyi energiát használnak az AI-chatbotok?
Mennyi energiát használnak az AI-chatbotok?

A mesterséges intelligenciát (AI) egyre több szektorban használják, ez pedig a kiszolgálásához használt adatközpontok villamosenergia-igényének drasztikus növekedésével jár. Az AI-rendszerek jelenleg a globális áramfogyasztás 1-1,3%-át adják, ám ez a szám 2030-ra már a 3%-ot is elérheti. A hétköznapokban a mesterséges intelligenciát az AI-rendszerekre épülő chatbotok formájában alkalmazzák, ám ezek fejlesztése és működtetése is jelentős mennyiségű energiát igényel. A legnépszerűbb chatbot, a ChatGPT 3-as változatához használt nyelvi modell fejlesztése például annyi energiát emésztett fel, mint amennyire ahhoz lenne szükség, hogy autóval kétszer megtegyük a hold és a föld közötti távolságot, illetve hogy 19-szer körbeutazzuk a bolygónkat. Az AI növekvő energiaszükséglete a technológiai szektor sok más szereplőjére és természetesen a környezetre is káros hatással van.

A mesterséges intelligencia energiaigénye

A mesterséges intelligencia energiaigényének rohamos emelkedése a 2000-es évektől kezdve vált szembetűnővé, az AI egyre általánosabbá váló felhasználásával pedig e növekedés csak tovább gyorsul. Ezt mutatja, hogy az Egyesült Államokban az utóbbi közel három évtized során a mesterséges intelligenciát kiszolgáló adatközpontok villamos energia iránti szükséglete nőtt a leggyorsabb ütemben. 

Becslések szerint ezeknek az amerikai adatfarmoknak a fogyasztása 2030-ra megduplázódik, s ezáltal az amerikai áramtermelés mintegy 9%-át fogják elhasználni. Hatalmas energiaigénye miatt az AI már most jelentős hatással van az éghajlatra, azzal viszont, hogy a jövőben még tovább terheli az amúgy is gyengélkedő villamosenergia-hálózatokat, a klímaváltozás elleni küzdelmet is megnehezíti. Pedig a jelenlegi trend minden jel szerint tovább folytatódik. Erre utalnak a nagyvállalatok bejelentései is: a Microsoft például 3,2 milliárd dollárt fektet svédországi adatközpontokba, miközben németországi adatfarmjának területét is a kétszeresére növeli. Emellett azt ígéri, hogy 4,3 milliárd dollár értékben a franciaországi AI-infrastruktúrába is be fog ruházni.

Eközben az Amazon egy 8,5 milliárd dolláros németországi beruházás részeként adatközpontok hálózatát építi ki Brandenburg tartományban, és további 17,1 milliárd dollárt szán spanyolországi fejlesztésekre, a Google pedig a tervei szerint az AI fejlesztésének előmozdítása érdekében 1,1 milliárd dollárt költ finnországi adatközpontjára. Az adatközpontok hálózatának bővítése mellett az is nagy szerepet játszik a mesterséges intelligencia energiaigényének emelkedésében, hogy az AI-technológiák fejlesztése exponenciálisan növekvő mértékű energiát igényel. Ezt figyelembe véve az AI becslések szerint 2030-ra már akár a villamosenergia iránti globális kereslet 3,5%-át is kiteheti.

Az óriási energiafelhasználás okozta környezeti terhelés enyhítése érdekében – és más, üzleti megfontolásokból – a technológiai cégek az utóbbi években egyre inkább a megújuló energia felé fordulnak. Úgynevezett áramvásárlási megállapodásokkal ugyanis lehetőség nyílik arra, hogy az adatközpontok még a megépítésük előtt energiát kössenek le maguknak. A Meta például dániai napelemparkok, a Google pedig norvégiai szélerőművek telepítését finanszírozza, míg a Microsoft 2024 nyarán azért kötött egy 10 milliárd dolláros szerződést, hogy európai és amerikai adatközpontjai számára tiszta energiát biztosítson.

Egyre többen használják, így egyre több energiát igényel
Kép: canva

A mesterséges intelligencia terjedésével a globális villamosenergia-fogyasztás 1-1,3%-át jelenleg az AI- és a felhőágazat adja. Ez közel háromszorosa a kriptobányászat[1] által elfogyasztott energiának. Éppen emiatt a technológiai cégek és a kriptobányászok között már meg is kezdődött a hálózati hozzáférésért folytatott küzdelem. Egyes kriptobányászok a növekvő energiaigényt kihasználva hatalmas profitért adják bérbe vagy értékesítik a villamosenergia-hálózati infrastruktúrájukat, ám a szektorban dolgozó sok más szereplő tevékenysége veszélybe került. Becslések szerint az AI három éven belül elveszi a bitcoinbányák energiaellátásának egyötödét. A folyamat jól megfigyelhető a világ egyik legnagyobb, tőzsdén is jegyzett bitcoinbányász cége, a Marathon Digital Holdings esetében: tevékenységéhez az amerikai cég egy, a Talen Energy nevű vállalat tulajdonában lévő, atomenergiával működő pennsylvaniai adatközpontot szeretne megszerezni, erre viszont a nála 350-szer nagyobb tőkével rendelkező Amazon már korábban rátette a kezét.

Na és mennyi energiát emésztenek fel a chatbotok?

A mesterséges intelligencia „fogyasztói” változatát az arra épülő chatbotok jelentik. A chatbotok olyan mesterségesintelligencia-alapú rendszerek, amelyekkel az emberek is interakcióba léphetnek, általában szöveges (pl. a ChatGPT) vagy hangalapú (pl. az Apple által kifejlesztett, Siri névre hallgató virtuális asszisztens) formában. A chatbotokat a leggyakrabban ügyfélszolgálati, információszerzési és szórakoztatási célokra használják. Egyes elemzők szerint a chatbotokkal felszerelt eszközök száma világviszonylatban a 8 milliárd felé közelít. Ezen rendszerek többsége felhőalapú, vagyis hatalmas adatközpontokban elhelyezett szerverekre és több ezer chipre épül.

A legnépszerűbb chatbotok az OpenAI által működtetett ChatGPT, a Microsoft Copilot, a Jasper (korábban Jasper AI), a Google-hoz tartozó Gemini, a Writesonic vállalat Chatsonic nevű chatbotja, a Google Socratic, valamint a You.com keresőmotorhoz tartozó YouChat. Ezek közül a legtöbb energiát az alapvetően az OpenAI fejlettebb chatbotjára, a ChatGPT-4-re épülő Microsoft Copilot (korábbi nevén Bing) fogyasztja: üzemeltetése 2023-ban 7200 MWh-t igényelt. Ez közel hatszor akkora érték, mint amekkora az OpenAI korábbi nyelvi modelljének, a GPT-3-nak az átlagos éves becsült fogyasztása (1248 MWh) volt. A Jasper, a YouChat és a Chatsonic 2023-as energiaigénye szintén ehhez az értékhez hasonlóan alakult, mivel ezek a rendszerek is az OpenAI eszközeit használják. A legkisebb fogyasztása a Google chatbotjainak volt: a Gemini Bard névre hallgató elődje megközelítőleg 312 MWh-t, míg a tudományos adatbázisként szolgáló Socratic csupán 50-300 MWh-t fogyasztott a tavalyi évben.

A legnépszerűbb chatbot a ChatGPT, amelyre minden hónapban mintegy 16 millió alkalommal keresnek rá a Google-ön. Ez öt év alatt összesen akár 960 millió keresést is jelenthet. Közkedveltsége ellenére viszont az OpenAI-nak muszáj lesz orvosolnia valahogy a ChatGPT komoly energiaproblémáit. A chatbot működése ugyanis jelentős mennyiségű villamos áramot fogyaszt: egy kérdés megválaszolásához egy Google-keresés energiaigényének akár 25-szörösét is elhasználhatja. Thomas Nowotny, a University of Sussex mesterséges intelligenciával foglalkozó kutatócsoportjának vezetője szerint eddigi fejlesztése annyi energiát emésztett fel, mint amennyire ahhoz lenne szükség, hogy autóval kétszer megtegyük a hold és a föld közötti távolságot, vagy hogy 19-szer körbeutazzuk a földet. Nowotny arra is felhívta a figyelmet, hogy a ChatGPT-hez használt technológia energiafogyasztása kétévente várhatóan a 750-szeresére nőhet.

Vajon hova tart a chatbot-használat?
Kép: canva

Ez pedig egyáltalán nem fenntartható, hiszen ennek a trendnek a folytatódása azt jelentené, hogy az évtized végére a világ összes energiatermelése chatbotok építésére és fejlesztésére megy majd el. A hatalmas mennyiségű villamosenergia mellett rengeteg vízre is szükség van ahhoz, hogy az AI-szoftvereket futtató szervereket hűteni lehessen: egy 20-50 kérdésből álló beszélgetés során fél liter víz párolog el. További problémát jelent, hogy az Egyesült Államokban, ahol számos AI-szervert üzemeltetnek, a villamosenergia 16%-át még mindig szénerőművekkel állítják elő. Ebből adódóan csupán magának a GPT-3-nak a betanítása 502 tonna szén-dioxid kibocsátásával járt.

Saját energiafogyasztásáról a ChatGPT legújabb verzióját, a GPT-4-et is megkérdeztük, az pedig a következő választ adta:„A nagy nyelvi modellek, mint például a GPT-3, tréningje általában több hétig tart, és több ezer GPU-t[2]használ. Egyes becslések szerint egy ilyen modell tréningje során több száz MWh energia fogyasztódik el. Például a GPT-3 teljes tréningfolyamata során 1-2 GWh energia felhasználásáról van szó. Ez a mennyiség megfelel egy kisebb amerikai város éves energiafogyasztásának. A modellek fejlesztése és finomhangolása során végzett további számítások is jelentős energiafogyasztást jelentenek, bár ezek általában kisebbek a teljes tréninghez képest, de még így is elérhetik a több tíz vagy száz MWh-t. Amikor a modell már működésbe lép, az energiafogyasztás továbbra is jelentős marad, különösen a nagy léptékű üzemeltetés során. Egy folyamatosan futó rendszer, amelyet milliók használnak világszerte, szintén több MWh energiát fogyaszthat naponta, a felhasználók számától és a lekérdezések gyakoriságától függően. Összehasonlításképpen: egy átlagos amerikai háztartás éves energiafogyasztása körülbelül 10-11 MWh, vagy egy elektromos autó egy teljes töltéssel körülbelül 50-100 kWh energiát használ fel, ami megfelel egy modell rövidebb időtartamú, kisebb számítási feladatainak. Összességében tehát egy nagy nyelvi modell tréningje és működtetése nagyságrendileg ezer és több tízezer háztartás éves energiafogyasztásával hasonlítható össze, attól függően, hogy milyen konkrét számításokról és infrastruktúráról van szó.”

Mi következik mindebből?

A világ első számú techvállalatai, így például a Microsoft, a Google és az Amazon, adatközpontjaik üzemeltetésével hatalmas mennyiségű villamos energiát fogyasztanak, ez pedig súlyos terhet ró a elektromos hálózatokra. Habár a mesterséges intelligencia számos ágazat hatékonyságát növeli, és a hétköznapi emberek mindennapi életét is megkönnyíti, a jelenlegi hálózati infrastruktúra nem tud lépést tartani az AI növekvő energiaigényével. A probléma megoldására egyelőre két út mutatkozik: vagy vissza kellene fogni az AI fejlesztését, vagy pedig korszerűsíteni kellene az üzemeltetéséhez szükséges infrastruktúrát, illetve bővíteni kellene az energiatermelési kapacitásokat.

Forrás: Energiastratégia Intézet

search icon