Nincs pontos információnk arról, mennyi energiát használ fel az mesterséges intelligencia, és aki esetleg tisztában van ezzel, valószínűleg csak terjeszt tévhiteket a témában.


A mesterséges intelligencia működtetése sokkal több energiát fogyaszt, mint a hagyományos számítástechnika használata, de nem tudjuk pontosan mennyit, és akiknek van erről fogalmuk, azok ködösítenek.

Sam Altman, a mesterséges intelligencia (MI) első piaci modelljét kifejlesztő OpenAI vezérigazgatója egyik blogposztjában azt írta, hogy cége technológiája egy átlagos kérdés megválaszolásához 0,34 wattóra (Wh) elektromos energiát fogyaszt el. Ez annyi, amennyit egy elektromos sütő kicsit több mint egy másodperc alatt vagy egy jó minőségű égő néhány perc alatt használ fel.

Figyelembe véve, hogy az OpenAI heti 800 millió felhasználóval büszkélkedhet - és ez a szám folyamatosan emelkedik - a rengeteg apró kérdés összessége valóban jelentős villanyszámlát generálhat. Ráadásul Altman adatai meglehetősen ködösek, ahogy azt a Wired magazin egyik cikkében is említik, amely a mesterséges intelligencia energiafogyasztásának átláthatatlanságát tárgyalja.

Nyitott kérdés ugyanis, hogy a cégvezető mit értett "átlagos kérdés" alatt. Például tartalmaz-e a válasz ebben az esetben képet is, vagy sem. Továbbá csak a pillanatnyi használatot vette-e figyelembe a bölcs menedzser, vagy megpróbálta számszerűsíteni azt az energiát is, amit akkor fogyasztott az MI, amikor az "átlagos kérdés" megválaszolására felkészítették.

Így aztán Sasha Luccioni, a Hugging Face, aq vállalat klímapolitikáért felelős vezetője nem sokat ad Altman becslésére. Úgy gondolja, hogy azt akár hasraütéses alapon is kitalálhatta. A Wired magazin sajtómunkásai megkérdezték az OpenAI sajtóosztályát, miként számolták ki az áramfogyasztási adatot, de nem kaptak választ.

A Quartz magazinban megjelent cikk rávilágít a problémák súlyosságára: az Egyesült Államok áramtermelésének négy százalékát már most is az adatközpontok fogyasztják, s a jövőben ez a szám várhatóan kilenc százalékra emelkedik. Mindez különösen aggasztó, mivel az MI-alkalmazások iránti fokozódó kereslet olyan mértékű energiaigényt generál, hogy ez túllépheti a szerverfarmok és az áramtermelő létesítmények közötti infrastruktúra kapacitását.

Luccioni határozottan kiakadt azon, hogy amikor valaki autót vásárol, a gyártónak kötelező megosztania a jármű energiafogyasztási adatait. Bár a valóságban ezek az információk gyakran eltérhetnek a valóságtól, a tapasztalt autósok többsége pontosan tudja, hogy egy adott autótípus átlagosan mennyit fogyaszt. Emellett jogszabályi előírások is kötelezik a gyártókat az adatok közzétételére, míg a mesterséges intelligencia esetében ez a kérdés szinte fel sem merül.

A szakértő szerint erre vezethető vissza, hogy csak találgatások látnak napvilágot a mesterséges intelligencia kimeríthetetlen energiaéhségével kapcsolatban. Például állítólag a ChatGPT egy kérdés megválaszolására tízszer annyi áramot fogyaszt el, mint a Google böngészője az átlagos keresések kiszolgálására.

Az információ hitelességét árnyalja, hogy John Hennessy, a Google egyik tulajdonosa és az Alphabet elnöke, adta elő ezt az adatot 2023-ban. Ennek következtében a ChatGPT fejlesztője, az OpenAI, egy közvetlen versenytárstól származó információval áll szemben.

A bizonytalan becslések helyett egy újabb, ígéretes eredményt hozott a nyílt forráskódú mesterséges intelligencia modellek vizsgálata. A Frontiers of Communication című tudományos folyóiratban publikált kutatást Maximillian Dauner, a müncheni egyetem alkalmazott tudományokkal foglalkozó PhD-hallgatója irányította. A kutatás során ezer rögzített prompttal tesztelték a nyílt forráskódú MI-modelleket, és megfigyelték, hogy a válaszok generálása során az energiafogyasztásban akár 50 százalékos eltérések is előfordulhatnak.

A mesterséges intelligencia energiaéhsége nem titok, és a fejlesztők versenye most már nem csupán a technológiai újításokról szól, hanem az energiahatékonyság maximalizálásáról is. A Quartz által közzétett információk szerint a hatalmas szerverfarmok működése esetén egy apró, mindössze egytized százalékpontos javulás a hatékonysági mutatóban (power usage effectiveness, PUE) havonta akár 50 ezer dollárral, vagyis a jelenlegi árfolyam alapján körülbelül 17,5 millió forinttal csökkentheti az áramköltségeket. Ez a szám szinte megdöbbentő, és jól mutatja, mennyire fontos a fenntartható technológiai fejlődés a jövő számára.

Van még hova fejlődni. Egy adatközpont, amelynek PUE mutatója 1,5, a betáplált elektromos energia 67%-át használja fel a működéshez, míg a fennmaradó része az áramátalakítási és hűtési veszteségek révén elvész. A Wired magazin cikke szerint a Microsoft és a Google már korábban jelezték, hogy ahol csak lehetséges, kisebb mesterséges intelligencia modellek alkalmazásával törekednek az energiafelhasználás csökkentésére. Ezen kívül egy másik lehetőség a válaszadási sebesség növelése. Azonban ez nem mindig garantálja a sikert, hiszen ha egy program lelassul, a felhasználók hajlamosak más, gyorsabb alternatívák után nézni.

A chipfejlesztők új termékeik kapcsán azt hangoztatják, hogy akár ötöddel is csökkenthetik az energiafelhasználást a korábbi modellekhez képest. Emellett a hűtési rendszerek hatékonyságának javítása is jelentős előnyöket hozhat az adatközpontok működésében. Dauner véleménye szerint hasonlóan az autógyártókhoz, az MI-modellek fejlesztőinek is kötelezővé kellene tenni, hogy nyilvánosságra hozzák termékeik energiafogyasztási adatait, valamint a kapcsolódó szén-dioxid-kibocsátást.

Related posts