A nagy nyelvi modellek nem viselkednek úgy, mint az emberek, még ha ezt is várnánk – Fedezd fel a mesterséges intelligencia titkait!


A Nagy Nyelvi Modellek és az Emberi Általánosítás Kihívásai

A nagy nyelvi modellek (LLM-ek) egyik legnagyobb erőssége a feladatok sokszínűsége, amelyekhez alkalmazhatóak. Ugyanaz a gépi tanulási modell, amely segíthet egy egyetemi hallgatónak egy e-mail megírásában, egy klinikusnak is segítséget nyújthat a rák diagnosztizálásában. Azonban ezeknek a modelleknek a széleskörű alkalmazhatósága miatt nehéz őket rendszerszerűen értékelni.

Az MIT kutatói új megközelítést alkalmaztak. Azt állítják, hogy mivel az emberek döntenek a nagy nyelvi modellek alkalmazásáról, a modellek értékelésekor figyelembe kell venni, hogyan alkotnak véleményt az emberek ezeknek a modelleknek a képességeiről. Például egy egyetemi hallgatónak el kell döntenie, hogy a modell hasznos lehet-e egy adott e-mail megírásában, és egy klinikusnak meg kell határoznia, mely esetekben lenne a legjobb konzultálni a modellel.

Ennek az ötletnek az alapján a kutatók egy keretrendszert hoztak létre az LLM-ek értékelésére az emberi hiedelmekkel való összehangoltságuk alapján. Bevezettek egy emberi általánosítási függvényt – egy modellt arról, hogyan frissítik az emberek a véleményüket az LLM-ek képességeiről az interakciók után. Ezután értékelték, mennyire vannak összehangolva az LLM-ek ezzel az emberi általánosítási függvénnyel.

Eredményeik azt mutatják, hogy amikor a modellek nincsenek összehangolva az emberi általánosítási függvénnyel, a felhasználó túl magabiztos vagy alulértékelt lehet abban, hogy hol alkalmazza azokat, ami váratlan kudarcot okozhat. Továbbá, az összehangolás hiánya miatt a nagyobb teljesítményű modellek rosszabbul teljesítenek, mint a kisebb modellek magas tétű helyzetekben.

„Ezek az eszközök izgalmasak, mert általános célúak, de mivel általános célúak, emberekkel fognak együttműködni, ezért figyelembe kell venni az embert a folyamatban” – mondja Ashesh Rambachan, a tanulmány társszerzője, az MIT Gazdaságtudományi Karának adjunktusa és a Laboratórium az Információs és Döntési Rendszerekért (LIDS) fő kutatója.

Rambachan mellett a tanulmány társszerzője Keyon Vafa, a Harvard Egyetem posztdoktora; és Sendhil Mullainathan, az MIT professzora az Elektromos Mérnöki és Számítástechnikai és a Közgazdaságtudományi Tanszékeken, valamint a LIDS tagja. A kutatást az International Conference on Machine Learning konferencián mutatják be.

Emberi Általánosítás

Amikor más emberekkel interakcióba lépünk, véleményt alkotunk arról, mit gondolunk, mit tudnak és mit nem tudnak. Például, ha egy barátod finnyásan javítja a nyelvtani hibákat, általánosíthatsz és gondolhatod, hogy jól tud mondatokat szerkeszteni, még ha sosem kérdeztél is tőle mondat szerkesztésről. „A nyelvi modellek gyakran annyira emberinek tűnnek. Illusztrálni akartuk, hogy ez az emberi általánosítási erő ugyancsak jelen van abban, hogyan alkotnak véleményt az emberek a nyelvi modellekről” – mondja Rambachan.

Kezdőpontként a kutatók formálisan meghatározták az emberi általánosítási függvényt, amely magában foglalja a kérdések feltevését, a személy vagy LLM válaszainak megfigyelését, majd következtetéseket vonva le arról, hogyan válaszolna az a személy vagy modell kapcsolódó kérdésekre.

Ha valaki látja, hogy egy LLM helyesen válaszol mátrix inverzióval kapcsolatos kérdésekre, feltételezheti, hogy egyszerű számtani kérdéseket is kiválóan megold. Egy modell, amely nincs összehangolva ezzel a funkcióval – azaz nem teljesít jól azokon a kérdéseken, amelyeket egy ember helyesen várna tőle –, kudarcot vallhat, ha telepítik.

Ezzel a formális meghatározással a kezükben a kutatók egy kérdőívet terveztek, hogy mérjék, hogyan általánosítanak az emberek, amikor LLM-ekkel és más emberekkel interakcióba lépnek. A kérdőív résztvevőinek olyan kérdéseket mutattak be, amelyeket egy személy vagy LLM helyesen vagy helytelenül válaszolt meg, majd megkérdezték, hogy szerintük az a személy vagy LLM helyesen válaszolna-e egy kapcsolódó kérdésre. A kérdőív révén közel 19 000 példányos adatbázist generáltak arról, hogyan általánosítanak az emberek az LLM-ek teljesítményéről 79 különböző feladat során.

Az Összehangolás Mérése

Azt találták, hogy a résztvevők elég jól teljesítettek, amikor megkérdezték őket, hogy egy ember, aki egy kérdést helyesen válaszolt meg, válaszolna-e helyesen egy kapcsolódó kérdésre, de sokkal rosszabbul általánosítottak az LLM-ek teljesítményéről.

„Az emberi általánosítás alkalmazható a nyelvi modellekre, de ez leomlik, mert ezek a nyelvi modellek nem mutatják az emberek szakértelmi mintáit” – mondja Rambachan. Az emberek hajlamosabbak voltak frissíteni a véleményüket egy LLM-ről, amikor az helytelenül válaszolt kérdésekre, mint amikor helyesen válaszolt kérdésekre. Arra is hajlottak, hogy azt higgyék, az LLM teljesítménye az egyszerű kérdéseken kevés hatással van a bonyolultabb kérdések teljesítményére.

Azokban a helyzetekben, amikor az emberek nagyobb súlyt helyeztek a helytelen válaszokra, az egyszerűbb modellek jobban teljesítettek, mint a nagyon nagy modellek, mint például GPT-4.

„A nyelvi modellek, amelyek jobbak lesznek, szinte becsaphatják az embereket abban, hogy azt gondolják, jól fognak teljesíteni kapcsolódó kérdéseken, amikor valójában nem így van” – mondja.

Az egyik lehetséges magyarázat arra, hogy miért rosszabbak az emberek az LLM-ekkel kapcsolatban történő általánosításban az újdonságukból fakadhat – az emberek sokkal kevesebb tapasztalattal rendelkeznek az LLM-ekkel való interakcióban, mint más emberekkel.

„A jövőben lehetséges, hogy csak azáltal, hogy többet interakcióba lépünk a nyelvi modellekkel, jobbak leszünk” – mondja.

Ennek érdekében a kutatók további tanulmányokat szeretnének végezni arról, hogyan alakulnak ki az emberek hiedelmei az LLM-ekről az idő múlásával, ahogy interakcióba lépnek egy modellel. Azt is meg akarják vizsgálni, hogyan lehetne beépíteni az emberi általánosítást az LLM-ek fejlesztésébe.

„Amikor ezeket az algoritmusokat képezzük, vagy megpróbáljuk frissíteni őket emberi visszajelzéssel, figyelembe kell vennünk az emberi általánosítási függvényt, amikor a teljesítmény mérésére gondolunk” – mondja.

„Számomra a tanulmány hozzájárulása kétirányú. Az első gyakorlati: a tanulmány feltár egy kritikus problémát az LLM-ek általános fogyasztói használatának telepítésében. Ha az embereknek nincs megfelelő megértésük arról, mikor lesznek pontosak az LLM-ek és mikor fognak kudarcot vallani, akkor nagyobb valószínűséggel látnak hibákat és esetleg elbátortalanodnak a további használattól. Ez kiemeli a modellek emberek általánosítási megértésével való összehangolásának kérdését” – mondja Alex Imas, a Chicago Egyetem Booth School of Business viselkedéstudományi és közgazdaságtani professzora, aki nem vett részt ebben a munkában. „A második hozzájárulás alapvetőbb: az elvárt problémákra és területekre való általánosítás hiánya segít jobban megérteni, mit csinálnak a modellek, amikor egy problémát ‘helyesen’ oldanak meg. Ez egy tesztet biztosít arra, hogy az LLM-ek ‘megértik-e’ a megoldott problémát.”

Ez a kutatás részben a Harvard Data Science Initiative és a Chicago Egyetem Booth School of Business Alkalmazott AI Központja által finanszírozott.

Érdekesség: Az egyik legnagyobb nyelvi modell, a GPT-3, több mint 175 milliárd paraméterrel rendelkezik, ami majdnem ötszöröse az emberi agy szinapszisainak számának.

Források: MIT News, Harvard Data Science Initiative, University of Chicago Booth School of Business