OpenAI bemutatja az AGI felé vezető ötlépcsős rendszerét
Az OpenAI nemrégiben leleplezte egy ötlépcsős rendszert, amely az általános mesterséges intelligencia (AGI) fejlesztésének előrehaladását méri. Ezt a rendszert a vállalat kedden osztotta meg az alkalmazottakkal egy belső találkozón, hogy tiszta keretet biztosítson az MI fejlődésének megértéséhez. Azonban a rendszer hipotetikus technológiát ír le, amely még nem létezik, és valószínűleg inkább marketingstratégiának tekinthető, amely befektetők vonzására szolgál.
Az OpenAI korábban kijelentette, hogy az AGI – egy homályos fogalom, amely egy olyan AI-rendszert jelent, amely képes emberi szintű feladatokat ellátni speciális képzés nélkül – a vállalat elsődleges célja. Az AGI iránti törekvés, amely az embereket helyettesíteni képes technológiát célozza meg, hajtja a vállalat iránti tartós érdeklődést, bár egy ilyen technológia valószínűleg széles körű társadalmi zavart okozna.
Az OpenAI vezérigazgatója, Sam Altman korábban már kifejezte azon hitét, hogy az AGI elérhető lehet ebben az évtizedben. A vezérigazgató nyilvános üzenetei nagy része arról szól, hogyan kezelheti a vállalat (és általában a társadalom) az AGI által okozott zavarokat. Ebben a kontextusban egy belső rangsorolási rendszer, amely kommunikálja az elért MI mérföldköveket, értelmet nyer.
Az OpenAI öt szintje, amelyeket a befektetőkkel is meg kíván osztani, a jelenlegi MI képességektől az olyan rendszerekig terjed, amelyek potenciálisan egész szervezeteket irányíthatnak. A vállalat úgy véli, hogy technológiája (mint például a ChatGPT-t működtető GPT-4) jelenleg az 1. szinten van, amely a beszélgetési nyelvű MI-t foglalja magában. Azonban az OpenAI vezetői állítólag elmondták az alkalmazottaknak, hogy közel állnak a 2. szint eléréséhez, amelyet „Reasoners”-nek neveztek el.
A Bloomberg az OpenAI öt „Artificial Intelligence Stages” szintjét a következőképpen sorolja fel:
- 1. szint: Chatbotok, beszélgetési nyelvű MI
- 2. szint: Reasoners, emberi szintű problémamegoldás
- 3. szint: Ügynökök, rendszerek, amelyek önállóan cselekednek
- 4. szint: Innovátorok, MI, amely segít az újításokban
- 5. szint: Szervezetek, MI, amely egész szervezetek munkáját végezheti el
Egy 2. szintű MI-rendszer állítólag képes lenne alapvető problémamegoldásra, ami egy doktori fokozattal rendelkező ember szintjének felel meg, de külső eszközök nélkül. Az all-hands találkozón az OpenAI vezetése állítólag bemutatott egy kutatási projektet a GPT-4 modelljükkel, amely a kutatók szerint az emberi szintű érvelési képesség jeleit mutatja, egy, a Bloombergnek nyilatkozó ismerős szerint.
Az OpenAI rangsorolási rendszere továbbra is fejlesztés alatt áll. A vállalat tervezi, hogy visszajelzéseket gyűjt az alkalmazottaktól, a befektetőktől és az igazgatósági tagoktól, és idővel finomítja a szinteket.
Az OpenAI szóvivője az Ars Technica kérdésére, hogy pontos-e a Bloomberg jelentése, azt mondta, hogy „nincs hozzáfűznivalójuk”.
Az AI képességek rangsorolásának problémája
Az OpenAI nem az egyetlen, amely megpróbálja számszerűsíteni az MI képességeinek szintjeit. Ahogy a Bloomberg is megjegyzi, az OpenAI rendszere hasonlít az autógyártók által térképezett autonóm vezetési szintekhez. 2023 novemberében a Google DeepMind kutatói saját ötszintes keretrendszert javasoltak az MI fejlődésének értékelésére, ami azt mutatja, hogy más MI laborok is próbálják kitalálni, hogyan rangsorolhatják a még nem létező dolgokat.
Az OpenAI osztályozási rendszere hasonlít az Anthropic által 2023 szeptemberében közzétett „AI Safety Levels” (ASL) rendszeréhez is. Mindkét rendszer az MI képességek kategorizálására törekszik, bár különböző aspektusokra összpontosítanak. Az Anthropic ASL-jei kifejezetten a biztonságra és a katasztrofális kockázatokra (például az ASL-2, amely „a veszélyes képességek korai jeleit mutató rendszereket” jelöli) fókuszálnak, míg az OpenAI szintjei az általános képességeket követik nyomon.
Bármilyen MI osztályozási rendszer kérdéseket vet fel azzal kapcsolatban, hogy lehetséges-e érdemben számszerűsíteni az MI fejlődését, és mi minősül előrelépésnek (vagy akár mi minősül „veszélyes” MI-rendszernek, mint az Anthropic esetében). A technológiai ipar eddig hajlamos volt túlígérni az MI képességeit, és az OpenAI lineáris fejlődési modelljei potenciálisan irreális elvárásokat táplálhatnak.
Jelenleg nincs konszenzus az MI kutatói közösségben arról, hogyan mérhetnék az AGI felé való haladást, vagy hogy az AGI egy jól definiált vagy megvalósítható cél-e. Mint ilyen, az OpenAI ötlépcsős rendszere valószínűleg inkább kommunikációs eszköznek tekinthető, amely a vállalat aspirációs céljait mutatja be, mintsem tudományos vagy technikai előrelépés mérésének.
Érdekesség: Az első chatbot, ELIZA, 1966-ban készült, és egyszerűen csak kulcsszavak felismerésével válaszolt, mégis sokan úgy érezték, hogy valódi beszélgetést folytatnak vele. Források: Bloomberg, Ars Technica, Google DeepMind, Anthropic