Ne hagyd, hogy félrevezessenek: a nagy nyelvi modellek érvelési készségeit gyakran túlbecsülik!


MIT Kutatás: A Nagy Nyelvi Modellek Valós Képességei

Amikor a mesterséges intelligenciáról van szó, a látszat csalhat. A nagy nyelvi modellek (LLM-ek) működésének rejtélye abból fakad, hogy ezek hatalmas méretűek, összetett tanítási módszerekkel rendelkeznek, viselkedésük nehezen megjósolható, és értelmezhetőségük nehezen fogható fel. Az MIT Számítástechnikai és Mesterséges Intelligencia Laboratóriumának (CSAIL) kutatói nemrégiben nagyítót ragadtak, hogy megvizsgálják, hogyan teljesítenek ezek a modellek különböző feladatok variációival, és érdekes betekintést nyertek a memorizálás és a logikai képességek összjátékába. Kiderült, hogy a logikai képességeiket gyakran túlbecsülik.

A tanulmány összehasonlította az „alapértelmezett feladatokat,” amelyeken a modelleket képezik és tesztelik, az „ellenkező helyzetekkel,” vagyis olyan hipotetikus helyzetekkel, amelyek eltérnek az alapértelmezett feltételektől — és amelyekkel a modellek, mint a GPT-4 és Claude általában képesek megbirkózni. A kutatók néhány tesztet úgy alakítottak ki, hogy meglévő feladatokat módosítottak, nem pedig teljesen újakat hoztak létre. Különböző adatbázisokat és mérőeszközöket használtak, amelyek kifejezetten a modellek különböző képességeit értékelték, például aritmetika, sakk, kódértékelés, logikai kérdések megválaszolása stb.

Amikor a felhasználók interakcióba lépnek a nyelvi modellekkel, az aritmetika általában tízes számrendszerben történik, amely ismerős a modellek számára. De az a tény, hogy jól teljesítenek a tízes számrendszerben, hamis benyomást kelthet arról, hogy erős hozzáadási képességeik vannak. Logikusan, ha valóban jó hozzáadási képességeik lennének, akkor minden számrendszerben megbízhatóan magas teljesítményt kellene nyújtaniuk, hasonlóan a számológépekhez vagy számítógépekhez. A kutatás valójában azt mutatta, hogy ezek a modellek nem olyan robusztusak, mint azt sokan gondolják. Magas teljesítményük csak a megszokott feladatváltozatokra korlátozódik, és jelentős teljesítménycsökkenést szenvednek el az ismeretlen ellenkező helyzetekben, ami a hozzáadás általánosíthatóságának hiányára utal.

Ez a minta igaz volt sok más feladatra is, mint például a zenei akkordok ujjrendje, térbeli gondolkodás és még a sakkproblémák is, ahol a bábuk kezdőpozícióit kicsit megváltoztatták. Míg az emberi játékosok elvárhatóan képesek meghatározni a lépések jogszerűségét a módosított helyzetekben (elegendő idővel), a modellek küzdöttek és nem tudtak jobban teljesíteni, mint a véletlen találgatás, ami korlátozott képességüket jelzi az ismeretlen helyzetek általánosítására.

„Felfedeztünk egy lenyűgöző aspektust a nagy nyelvi modellekben: kiválóan teljesítenek az ismerős helyzetekben, szinte mint egy jól kitaposott ösvényen, de küzdenek, amikor a terep ismeretlen lesz. Ez az észrevétel kulcsfontosságú, ahogy arra törekszünk, hogy javítsuk ezeknek a modelleknek az alkalmazkodóképességét és bővítsük alkalmazási horizontjukat” — mondja Zhaofeng Wu, az MIT villamosmérnöki és számítástudományi PhD-hallgatója, a CSAIL munkatársa, és az új tanulmány vezető szerzője. „Ahogy az AI egyre inkább elterjed a társadalmunkban, megbízhatóan kell kezelnie a különböző helyzeteket, akár ismerős, akár nem. Reméljük, hogy ezek az észrevételek egy nap segítenek majd a jövőbeli LLM-ek tervezésében, amelyek javított robusztussággal rendelkeznek.”

Annak ellenére, hogy értékes betekintést nyertünk, természetesen vannak korlátok. A tanulmány egyes feladatokra és körülményekre összpontosított, és nem fedte le a modellek által potenciálisan szembesülő kihívások teljes skáláját a valós alkalmazásokban, ami szükségessé teszi a változatosabb tesztelési környezeteket. A jövőbeni munkák során bővíteni lehetne a feladatok és ellenkező helyzetek skáláját, hogy több potenciális gyengeséget tárjanak fel. Ez bonyolultabb és kevésbé gyakori helyzetek vizsgálatát is jelentheti. A csapat azt is javítani kívánja, hogy jobb módszereket hozzanak létre a modellek döntéshozatali folyamatainak megértésére.

„Ahogy a nyelvi modellek mérete növekszik, egyre nehezebb megérteni a képzési adataikat, még a nyílt modellek esetében is, nem is beszélve a tulajdonosi modellekről” — mondja Hao Peng, az Illinois-i Egyetem Urbana-Champaign adjunktusa. „A közösség továbbra is zavarban van, hogy ezek a modellek valóban általánosítanak-e ismeretlen feladatokra, vagy látszólag sikeresek a képzési adatok memorizálásával. Ez a tanulmány fontos lépéseket tesz ebben a kérdésben. Gondosan tervezett ellenkező értékeléseket állít össze, és új betekintést nyújt a legkorszerűbb LLM-ek képességeibe. Kiderül, hogy az ismeretlen feladatok megoldására való képességük talán sokkal korlátozottabb, mint sokan gondolták. Lehetősége van arra, hogy inspirálja a jövőbeli kutatásokat a mai modellek hibáinak azonosítására és jobb modellek kifejlesztésére.”

További szerzők közé tartozik Najoung Kim, a Bostoni Egyetem adjunktusa és a Google vendégkutatója, valamint hét CSAIL munkatárs: az MIT villamosmérnöki és számítástudományi (EECS) PhD-hallgatói Linlu Qiu, Alexis Ross, Ekin Akyürek SM ’21 és Boyuan Chen; volt posztdoktor és az Apple AI/ML kutatója Bailin Wang; valamint az EECS adjunktusai Jacob Andreas és Yoon Kim. A csapat tanulmányát részben támogatta az MIT–IBM Watson AI Lab, az MIT Quest for Intelligence és a Nemzeti Tudományos Alapítvány. A csapat a munkát a Számítógépes Nyelvészet Észak-Amerikai Fejezetének Egyesületén (NAACL) mutatta be múlt hónapban.

Érdekes tény: Tudta, hogy a mesterséges intelligencia egyik legkorábbi formája, az ELIZA, egy 1966-ban fejlesztett chatbot volt, amely a Rogerian pszichoterápia stílusában beszélgetett a felhasználókkal?

Források: MIT CSAIL, NAACL, National Science Foundation.