Splendid

Tényleg annyit fogyaszt az AI, mint egy villanykörte? Aggasztó lehet az AI klímalábnyoma

2025.06.20

Egyre több kutatás próbálja számszerűsíteni, mekkora energiaigénye van az AI-rendszerek működésének – miközben a legnépszerűbb modellek mögött álló cégek továbbra is titkolják saját szén-dioxid-kibocsátásukat.

"Sokan kíváncsiak arra, mennyi energiát fogyaszt egy-egy ChatGPT-lekérdezés" – tért ki egy hosszabb blogbejegyzésében a múlt héten Sam Altman, az OpenAI vezérigazgatója. A cégvezető szerint egy átlagos kérdés 0,34 wattóra energiát használ fel – "körülbelül annyit, mint amennyit egy sütő elhasznál másfél másodperc alatt, vagy egy energiatakarékos izzó pár perc működés közben".

Csakhogy amikor egy szolgáltatás heti 800 millió aktív felhasználóval működik – és ez a szám folyamatosan nő –, az ilyen állítások súlya is megnő. Szakértők szerint viszont az Altman-féle szám érdemi kontextus nélkül mit sem ér: nem derül ki belőle például, pontosan mit takar az "átlagos lekérdezés", hogy benne van-e a képgenerálás, és az sem, hogy számoltak-e a mesterséges intelligencia modellek betanításának vagy a szerverek hűtésének energiaigényével.

Ahogy az AI egyre inkább átszövi a mindennapjainkat, úgy nő az energiaigénye is – ráadásul épp akkor pörgetheti fel a szén-dioxid-kibocsátást, amikor világszerte igyekszünk azt csökkenteni a klímaváltozás lassítása érdekében. Egy új és folyamatosan bővülő kutatási irány most arra próbál választ találni, pontosan mekkora környezeti árat fizetünk ezért a technológiáért.

A feladatot azonban jelentősen nehezíti, hogy az iparág vezető szereplői – köztük az OpenAI is – alig közölnek adatokat környezeti hatásaikról. A témával foglalkozó kutató, Sasha Luccioni és három társszerzője épp a héten adott be szakmai bírálatra egy tanulmányt, amely az AI-modellek környezeti átláthatóságának hiányára hívja fel a figyelmet. Ebben az OpenRouter nevű nyílt adatbázis forgalmi adatai alapján megállapították, hogy 2025 májusában a nyelvi modellek (LLM-ek) használatának 84 százaléka olyan rendszerekhez köthető, amelyek nem közölnek semmilyen információt saját környezeti hatásukról.

"Egészen elképesztő, hogy egy autóról tudjuk, hány litert fogyaszt százon, de azokat az AI-eszközöket, amelyeket nap mint nap használunk, semmilyen hatékonysági vagy kibocsátási adattal nem látják el" – mondja Luccioni. "Nem kötelező, nincs szabályozva. Pedig a klímaválság közepén ez minden szabályozó hatóságnál prioritás kellene legyen."

Az átláthatóság hiánya oda vezetett, hogy a közvélemény gyakran olyan becsléseket vesz készpénznek, amelyek valójában alaptalanok. Régóta kering az állítás, hogy egy ChatGPT-lekérdezés tízszer annyi energiát használ, mint egy Google-keresés. Luccioni kutatócsoportja ennek nyomába eredt, és kiderítette, hogy az adat egy 2023-as nyilatkozatra vezethető vissza – méghozzá John Hennessy-től, a Google anyavállalata, az Alphabet elnökétől.

Vagyis egy nagy techcég igazgatótanácsának tagja nyilatkozott egy másik cég termékéről, amelyhez semmi köze nincs – az állítást mégis újra és újra idézik újságcikkekben, szakpolitikai anyagokban. "Egy félvállról odavetett megjegyzésből lett hivatalos szám, ami aztán már döntéshozatalt befolyásol" – mondja Luccioni. "A valódi probléma, hogy nincsenek pontos adataink. Így aztán még a legegyszerűbb becsléseket is aranyszabálynak tekintik – pedig erről szó sincs."

A megbízhatóbb adatok felé egy út vezet: a nyílt forráskódú modellek vizsgálata. Míg az olyan cégek, mint az OpenAI vagy az Anthropic teljesen zártan kezelik rendszereiket, más vállalatok nyilvánosságra hoznak bizonyos részleteket, így lehetővé téve a külső kutatók számára is a kibocsátás pontosabb becslését.

A Frontiers of Communication folyóiratban frissen megjelent tanulmány 14 nyílt nyelvi modellt vizsgált – köztük két Meta Llama- és három DeepSeek-modellt –, és arra jutott, hogy a válaszadás során akár 50 százalékos eltérés is lehet az energiafelhasználásban. A kutatók ezer darab, különböző bonyolultságú kérdést adtak be a modelleknek: ezek fele egyszerű, fele szabadabb válaszformátumú volt. Kiderült, hogy a bonyolultabb, "okoskodó" modellek jelentősen több belső feldolgozási egységet, úgynevezett gondolati tokent használnak – ez pedig magasabb energiafogyasztást is jelent. Nem meglepő módon ezek a modellek általában pontosabb válaszokat adtak – viszont például egyszerűbb, feleletválasztós kérdéseknél gyakran nem voltak képesek egyetlen szóban válaszolni, ahogy azt az utasítás kérte, ezáltal feleslegesen tovább növelve az energiafelhasználást.

A kutatás vezetője, Maximilian Dauner, a Müncheni Alkalmazott Tudományok Egyetemének doktorandusza szerint a jövőben érdemes lenne úgy tervezni az AI-használatot, hogy az egyszerű kérdéseket kisebb, energiatakarékosabb modellek válaszolják meg. "A kisebb modellek is nagyon jó eredményeket tudnak elérni egyszerűbb feladatoknál, és közben nem termelnek annyi CO₂-t" – mondja.

Néhány nagyvállalat – például a Google vagy a Microsoft – már most is alkalmaz ilyen stratégiát, legalábbis elmondásuk szerint. Azonban a legtöbb szolgáltató nem ösztönzi a felhasználókat az energiatakarékosabb modellek használatára. Pedig még az is számít, milyen gyorsan válaszol egy AI – a gyorsabb válasz több energiát igényel. Ez viszont sehol sincs elmagyarázva a felhasználóknak – hívja fel a figyelmet Noman Bashir, az MIT Klíma és Fenntarthatósági Konzorciumának kutatója.

"A cél az, hogy a lehető leggyorsabban válaszoljon az AI, hogy a felhasználó ne hagyja el a platformot" – mondja. "Ha a ChatGPT csak öt perc után válaszolna, mindenki átmenne egy másik szolgáltatóhoz."

És ez még csak a jéghegy csúcsa. Bashir emlékeztet: a lekérdezések energiaigényét nem lehet teljesen modellezni anélkül, hogy figyelembe vennénk az azokat kiszolgáló fizikai infrastruktúrát is. Például a GPU típusa is számít: míg Dauner az Nvidia A100-as chipjén futtatta a teszteket, az újabb H100-as, kimondottan AI-hoz tervezett modell sokkal energiaigényesebb. Emellett ott vannak az adatközpontok hűtőrendszerei, a világítás, a hálózati eszközök – ezek mind-mind hozzájárulnak az összkibocsátáshoz. Ráadásul nem mindegy, hol van az adott adatközpont: vannak, amelyeket zömében fosszilis energiával működő hálózatok táplálnak, míg máshol megújuló energia az elsődleges forrás.

Bashir szerint az olyan kutatások, amelyek ezeket nem veszik figyelembe, olyanok, mintha felemelnénk egy autót, pörgetnénk a kereket, és ebből akarnánk következtetni a fogyasztására. "Nem számítjuk bele, hogy a keréknek vinnie kell a kasztnit és az utasokat is" – mondja.

A legnagyobb probléma mégis az, hogy a nyílt modellek – mint amiket Dauner vizsgált – csak töredékét adják annak, amit a világ használ. Egy AI modell betanítása, majd rendszeres frissítése óriási mennyiségű energiát emészt fel – és ezek az adatok teljesen zártak. Azt sem tudni, hogy Altman "villanykörtés" hasonlata egyáltalán számol-e ezekkel az energiaigényekkel.

"Ha lenne egy varázspálcám, kötelezővé tenném, hogy bármilyen AI-rendszert is vezet be egy cég, bárhol a világon, bármilyen célra – legyen köteles nyilvánosan közölni a karbonlábnyomát" – mondja Luccioni.