Hogyan juthatunk el a mesterséges általános intelligenciához? Gondolj könnyedén.

2025-re a vállalkozók elárasztják a piacot az AI-alapú alkalmazásokkal. Végre a generatív AI megvalósítja a hype-ot, új, megfizethető fogyasztói és üzleti alkalmazásokkal. Jelenleg ez nem általános vélemény. Az OpenAI, a Google és az xAI egy fegyverkezési versenyben áll, hogy megalkossa a legnagyobb teljesítményű nagy nyelvi modellt (LLM), amely az úgynevezett mesterséges általános intelligencia (AGI) felé törekszik, és gladiátori csatájuk uralja a még gyerekcipőben járó generatív AI ökoszisztéma gondolatvilágát és bevételét.

Például Elon Musk 6 milliárd dollárt gyűjtött össze az xAI elindítására, és 100 000 Nvidia H100 GPU-t vásárolt, amelyek drága chippek az AI feldolgozásához, több mint 3 milliárd dollárba került a Grok modell betanítása. Ilyen árak mellett csak a technológiai milliárdosok engedhetik meg maguknak, hogy építsenek ilyen óriási LLM-eket.

A vállalatok, mint például az OpenAI, a Google és az xAI hihetetlen költései egy lopsided ökoszisztémát hoztak létre, amely alulról nehéz és felülről könnyű. Az ilyen hatalmas GPU farmok által betanított LLM-ek általában szintén nagyon drágák az inferencia szempontjából, amely a folyamatot jelenti, amikor egy promptot adunk meg, és választ generálunk a nagy nyelvi modellekből, és ez minden AI-t használó alkalmazásban embedded. Olyan ez, mintha mindenkinek lenne 5G-s okostelefonja, de az adatforgalom használata annyira drága lenne, hogy senki sem tudna TikTok videót nézni vagy közösségi médiában böngészni.

Ennek eredményeként a kiváló LLM-ek, amelyeknek magas az inferenciaköltsége, megfizethetetlenné tették a gyilkos alkalmazások elterjedését. Ez a lopsided ökoszisztéma, ahol ultra-gazdag technológiai mogulok harcolnak egymással, gazdagította az Nvidiát, miközben az alkalmazásfejlesztőket arra kényszerítette, hogy egy 22-es csapdába kerüljenek: használniuk kell egy alacsony költségű és alacsony teljesítményű modellt, amely csalódást okoz a felhasználóknak, vagy kénytelenek megfizetni a túlzott inferenciaköltségeket, kockáztatva a csődöt.

2025-re új megközelítés fog megjelenni, amely mindezt megváltoztathatja. Ez visszatér ahhoz, amit a korábbi technológiai forradalmakból tanultunk, mint például az Intel és a Windows PC-kora, vagy a Qualcomm és az Android mobilkora, ahol Moore törvénye évről évre javította a PC-ket és alkalmazásokat, a csökkentett sávszélesség költsége pedig a mobiltelefonokat és alkalmazásokat.

De mi a helyzet a magas inferenciaköltségekkel? Egy új törvény az AI inferenciához éppen a sarkon áll. Az inferenciaköltség évente tízszeresére csökkent, új AI algoritmusok, inferenciatechnológiák és jobb, alacsonyabb árú chipek révén. Például, ha egy harmadik fél fejlesztő OpenAI csúcsmodelljeit használta AI keresés építésére, 2023 májusában a költség körülbelül 10 dollár volt lekérdezésenként, míg a Google nem generatív AI keresése 0,01 dollárba került, azaz 1000-szeres különbség. De 2024 májusára az OpenAI csúcsmodelljének ára körülbelül 1 dollárra csökkent lekérdezésenként. Ezen a példátlan 10-szeres éves árcsökkenésen keresztül az alkalmazásfejlesztők egyre magasabb minőségű és alacsonyabb költségű modelleket használhatnak, ami a következő két évben az AI alkalmazások elterjedését eredményezi.

Úgy vélem, ez egy másféle megközelítést fog meghatározni az LLM vállalatok építésében. Ahelyett, hogy az AGI fegyverkezési versenyre koncentrálnának, a vállalkozók olyan modellek építésére összpontosítanak, amelyek szinte ugyanolyan jók, mint a legjobbak, de könnyűek, ezáltal ultragyorsak és ultraköltséghatékonyak. Ezek a modellek és alkalmazások, amelyek kereskedelmi célokra épülnek, vékonyabb modellek és innovatív architektúrák segítségével, töredékébe kerülnek a betanításnak, és elegendő teljesítményt nyújtanak a fogyasztók és vállalatok számára.

Például támogatok egy csapatot, amely egy modellt, egy inferencia motort és egy alkalmazást egyidejűleg épít. A Rhymes.ai, egy Szilícium-völgyi AI startup, olyan modellt tanított, amely majdnem olyan jó, mint az OpenAI legjobb modelljei, mindössze 3 millió dollárért, szemben azzal a több mint 100 millió dollárral, amelyről Sam Altman beszélt, hogy az OpenAI GPT-4-et betanítani költséges. Ennek a modellnek az inferenciaköltsége egy AI keresőalkalmazás, mint például a BeaGo esetében, csupán 0,03 dollár lekérdezésenként, mindössze a GPT-4 árának 3%-a. Ráadásul a csapat csak öt mérnök munkájával két hónap alatt építette és indította el az AI keresőalkalmazást.

Hogyan sikerült ezt elérni? Vertikális és mély integráció, amely holisztikusan optimalizálta az inferenciát, a modellt és az alkalmazásfejlesztést.

Az AI fejlődésének útján mindannyian tanúi voltunk az LLM hatalmának, mint forradalmi technológiának. Meggyőződésem, hogy a generatív AI át fogja alakítani a tanulás, a munka, az élet és az üzlet módját. Az ökoszisztémának együtt kell működnie, hogy átlépje a költségakadályokat és alkalmazkodjon a formula, elérve az egyensúlyt, hogy az AI valóban működjön a társadalmunk számára.

Érdekes tény: Az AI rendszerek eddigi fejlődése során a legnagyobb kihívás a költségek csökkentése és a teljesítmény javítása volt, amit az új algoritmusok és technológiák folyamatos fejlődése segített elő.

Források: OpenAI, Google, xAI, Rhymes.ai, TechCrunch, The Verge.