Google környezeti jelentése feltárja az AI hatásait az üvegházhatású gázok kibocsátására
Google legújabb éves környezeti jelentése rávilágít arra, hogy az utóbbi idők mesterséges intelligencia (AI) fejlesztései milyen hatással voltak az üvegházhatású gázok kibocsátására. Az adatközpontok bővítése az AI fejlesztések támogatása érdekében hozzájárult ahhoz, hogy a cég 2023-ban 14,3 millió tonna szén-dioxid-egyenértéket termelt. Ez 48%-os növekedést jelent a 2019-es adatokhoz képest, és 13%-os növekedést a 2022-es évhez képest.
„Ez az eredmény elsősorban az adatközpontok energiafogyasztásának és az ellátási lánc kibocsátásainak növekedése miatt következett be,” írták a jelentés szerzői. „Ahogy tovább integráljuk az AI-t termékeinkbe, a kibocsátások csökkentése kihívást jelenthet a növekvő energiaigények miatt.”
2021-ben a Google vállalta, hogy 2030-ra nettó zéró kibocsátást ér el minden műveletében és értékláncában. A jelentés szerint ez a cél most már „rendkívül ambiciózusnak” tűnik, és „jelentős bizonytalanságokkal kell szembenézni.”
Miért növeli az AI a technológiai vállalatok kibocsátásait?
A legtöbb versenytársához hasonlóan, a Google is számos AI projektet és funkciót vezetett be az elmúlt év során, beleértve a Gemini, Gemma, Overviews és képalkotás a Keresésben, valamint AI biztonsági eszközöket.
Az AI rendszerek, különösen azok, amelyek nagy nyelvi modellek képzésében vesznek részt, jelentős számítási teljesítményt igényelnek. Ez magasabb áramfogyasztást és ennek következtében több szén-dioxid kibocsátást eredményez, mint a normál online tevékenységek.
Google és az UC Berkeley egy tanulmánya szerint az OpenAI GPT-3 képzése 552 metrikus tonna szén-dioxidot termelt — ez megegyezik 112 benzinüzemű autó egyéves kibocsátásával. Továbbá, a tanulmányok becslése szerint egy generatív AI rendszer körülbelül 33-szor több energiát használ, mint a feladatspecifikus szoftvert futtató gépek.
Hogyan kezeli a Google az AI kibocsátásait?
A Google környezeti jelentése számos módot említ, ahogyan a vállalat kezeli az AI fejlesztések energiaigényét. Legújabb Tensor Processing Unit-ja, a Trillium, több mint 67%-kal energiahatékonyabb, mint az ötödik generáció, míg adatközpontjai több mint 1,8-szor energiahatékonyabbak, mint a tipikus vállalati adatközpontok.
2024 márciusában az NVIDIA GTC-n Mark Lohmeyer, a Google Cloud számítási és AI/ML infrastruktúráért felelős alelnöke elmondta: „Ha az AI által vezérelt számítási teljesítményt nézzük, a saját TPUs-aink használatával a folyadékhűtést alkalmazzuk, ami lehetővé teszi, hogy gyorsabban, de sokkal energiahatékonyabb és költséghatékonyabb módon működjenek.”
A Google Cloud szoftvereket is használ a fenntartható üzemidő kezelésére. „Nem akarjuk, hogy a GPU-k vagy bármilyen számítási eszköz úgy használjon energiát, hogy közben nem termel aktívan eredményeket,” mondta Lohmeyer.
2023-ban a Google adatközpontjainak energiafogyasztásának 64%-a szén-dioxid-mentes forrásokból származott, beleértve a megújuló forrásokat és a szén-dioxid-leválasztási rendszereket is. Emellett a Google AI termékeit úgy tervezik, hogy általánosságban is foglalkozzanak az éghajlatváltozással, mint például az üzemanyag-hatékony útvonaltervezés a Google Térképen, árvízelőrejelző modellek és a Green Light eszköz, amely segít az útkereszteződések időzítésének optimalizálásában a stop-and-go forgalom és az üzemanyag-fogyasztás csökkentése érdekében.
Érdekes tény: Az AI rendszerek energiaigénye miatt a világ adatközpontjainak energiafogyasztása 2026-ra várhatóan megduplázódik.
Források: TechRepublic, Bloomberg, Business Insider, UC Berkeley