Az OpenAI bemutatja a forradalmi Strawberry nevű mesterséges intelligenciát, amely lépésről lépésre oldja meg a legbonyolultabb problémákat!

Az OpenAI legutóbbi áttörése az mesterséges intelligencia terén a modellek méretének drasztikus növelése volt, amikor tavaly bemutatták a GPT-4-et. A cég most egy új előrelépést jelentett be, amely egy új megközelítést jelez: egy modellt, amely képes „logikusan érvelni” sok nehéz probléma esetén, és jelentősen okosabb a meglévő mesterséges intelligenciáknál anélkül, hogy nagymértékű bővítésre lenne szükség.

Az új modellt OpenAI o1-nek nevezték el, amely olyan problémákat old meg, amelyek a meglévő mesterséges intelligencia modellek, beleértve a GPT-4o-t is, számára megoldhatatlanok. Ahelyett, hogy egy lépésben előhívná a választ, mint ahogy a nagy nyelvi modellek általában, a modell érvel a probléma mentén, úgy gondolkodva, mint egy ember, mielőtt eljut a helyes eredményhez.

„Ez az, amit az új paradigmának tekintünk ezekben a modellekben” – mondta Mira Murati, az OpenAI technológiai igazgatója a WIRED-nek. „Sokkal jobban kezeli a nagyon összetett érvelési feladatokat.” Az új modellt az OpenAI-n belül Strawberry kódnéven ismerték, és a cég szerint nem a GPT-4o utódja, hanem annak kiegészítése.

Új Modellek és Fejlesztések

Murati elmondta, hogy az OpenAI jelenleg építi a következő fő modellt, a GPT-5-öt, amely lényegesen nagyobb lesz elődjénél. Azonban a cég továbbra is úgy véli, hogy a méret segíthet új képességeket kihozni az AI-ból, a GPT-5 várhatóan tartalmazni fogja a ma bevezetett érvelési technológiát is. „Két paradigma van” – mondta Murati. „A méretezési paradigma és ez az új paradigma. Azt várjuk, hogy ezeket összehozzuk.”

A nagy nyelvi modellek (LLM) általában hatalmas neurális hálózatokból hívják elő válaszaikat, amelyek óriási mennyiségű tanulási adatra támaszkodnak. Képesek figyelemre méltó nyelvi és logikai képességeket mutatni, de hagyományosan meglepően egyszerű problémákkal is küzdenek, mint például az alap matematikai kérdések, amelyek érvelést igényelnek.

Erősített Tanulás és Hatékonyság

Murati szerint az OpenAI o1 megerősített tanulást használ, amely abban áll, hogy a modell pozitív visszajelzést kap, amikor helyes válaszokat ad, és negatív visszajelzést, amikor nem. „A modell élesíti a gondolkodását és finomítja azokat a stratégiákat, amelyeket a válasz eléréséhez használ” – mondta. A megerősített tanulás lehetővé tette a számítógépek számára, hogy emberfeletti ügyességgel játszanak játékokat, és hasznos feladatokat végezzenek, például számítógépprocesszorok tervezését.

Mark Chen, az OpenAI kutatási alelnöke, bemutatta az új modellt a WIRED-nek, amelyet arra használt, hogy olyan problémákat oldjon meg, amelyeket a korábbi modell, a GPT-4o nem tudott. Ezek között szerepelt egy fejlett kémiai kérdés és egy matematikai rejtvény: „Egy hercegnő annyi idős, mint a herceg, amikor a hercegnő kétszer annyi idős, mint amennyi idős a herceg volt, amikor a hercegnő kora a jelenlegi koruk összegének fele volt. Mi a herceg és a hercegnő életkora?” (A helyes válasz az, hogy a herceg 30, a hercegnő pedig 40.)

Az OpenAI szerint az új modell lényegesen jobban teljesít számos problémakörben, beleértve a kódolást, matematikát, fizikát, biológiát és kémiát. Az amerikai Matematikai Meghívásos Vizsgán (AIME), amely egy teszt a matematikai diákok számára, a GPT-4o átlagosan a problémák 12%-át oldotta meg, míg az o1 83%-ot helyesen válaszolt meg.

Az új modell lassabb, mint a GPT-4o, és az OpenAI azt állítja, hogy nem mindig teljesít jobban – részben azért, mert, ellentétben a GPT-4o-val, nem tudja keresni az internetet, és nem multimodális, ami azt jelenti, hogy nem tud képeket vagy hangot feldolgozni.

Jövőbeli Kilátások

Az LLM-ek érvelési képességeinek javítása régóta népszerű téma a kutatási körökben. Valójában a riválisok hasonló kutatási irányokat követnek. Júliusban a Google bejelentette az AlphaProof nevű projektet, amely a nyelvi modelleket ötvözi a megerősített tanulással a nehéz matematikai problémák megoldására.

Az OpenAI újdonsága emellett segíthet abban is, hogy az AI modellek jól viselkedjenek. Murati szerint az új modell már bizonyította, hogy jobban képes elkerülni a kellemetlen vagy potenciálisan káros kimenetek előállítását azáltal, hogy érvel a cselekvéseinek következményeiről. „Ha a gyerekek tanulására gondolsz, sokkal jobban megtanulják az egyes normák, viselkedések és értékek összhangját, amikor képesek érvelni arról, hogy miért csinálnak valamit” – mondta.

Érdekes tény: Az OpenAI új modellje a problémák megoldásának új megközelítése mellett képes arra is, hogy a bemeneti adatok alapján önállóan gondolkodjon, ami új lehetőségeket nyithat meg a mesterséges intelligencia alkalmazásában.

Források: WIRED, OpenAI hivatalos közleményei, AlphaProof projekt bemutatója.