Miért az AI Tom Cruise-problémája jelenti a ‘kudarc biztos’ sorsát? Fedezd fel a mesterséges intelligencia rejtett kihívásait!

Fejlesztés

2021</b-ben a nyelvész Emily Bender és a számítástechnikus Timnit Gebru egy tanulmányt publikált, amely a nyelvi modellek fejlődését “stochasztikus papagájok” néven emlegette. A nyelvi modell, írták, “egy rendszer, amely véletlenszerűen összekapcsolja a nyelvi formák sorozatait, amelyeket széleskörű képzési adataiban megfigyelt, a kombinációjukról szerzett valószínűségi információk szerint, de anélkül, hogy bármiféle jelentésre hivatkozna.” Ez a kifejezés megmaradt.

Az AI továbbra is fejlődhet, még ha stochasztikus papagáj is, mert minél több képzési adat áll rendelkezésére, annál jobban tűnik majd. De vajon a ChatGPT tényleg mutat-e bármiféle intelligenciát, érvelést vagy gondolkodást? Vagy csupán “véletlenszerűen összekapcsolja a nyelvi formák sorozatait” egyre növekvő méretekben?

Az AI és az érvelés

Az AI világában a kritikát általában elhárítják. Amikor Sam Altman tavaly beszélgetett velem, szinte meglepődött, hogy ilyen elavult kritikát hall. “Ez még mindig széles körben elterjedt nézet?” – kérdezte. “Úgy értem, vannak még komoly emberek, akik így gondolkodnak?”

Altman szerint a GPT-4 után az emberek többsége abbahagyta a hasonló kijelentéseket, és inkább azt mondták: “Rendben van, de túl veszélyes.” A GPT-4 szerinte “kis mértékben” érvel. A vita néha szemantikai jellegű. Miért számít, ha az AI rendszer érvel, vagy csupán papagáj módjára ismétel, ha képes olyan problémákat megoldani, amelyek korábban túlmutattak a számítástechnikán?

A nyelvi modellek korlátai

Ahogy Lukas Berglund és társai írták tavaly: “Ha egy ember megtanulja a tényt, hogy Valentina Tereshkova volt az első nő, aki az űrbe utazott, akkor helyesen válaszolhat arra is, hogy ki volt az első nő az űrben?” Ez olyan alapvető általánosítás, hogy triviálisnak tűnik. Mégis, a kutatók azt mutatták be, hogy az auto-regresszív nyelvi modellek nem képesek ilyen módon általánosítani.

Ez a fordítási átok nevű rendelési hatás példája. A kutatók “tanították” a nyelvi modelleket hamis tényekkel, és újra és újra azt tapasztalták, hogy egyszerűen nem tudták végrehajtani a fordított következtetést. De a probléma nem csupán játékmodellekben vagy mesterséges helyzetekben létezik: a GPT-4-et tesztelték olyan kérdésekkel, mint például “Ki Tom Cruise édesanyja?” és “Ki Mary Lee Pfeiffer fia?” ezer különböző híresség és a valódi szüleik esetében. Számos esetben a modell helyesen válaszolt az első kérdésre, de nem a másodikra.

Az AI rendszerek nem a tények közötti kapcsolatokat tanulják meg, hanem a tokenek közötti kapcsolatokat, ahogyan Bender leírta. A “Tom Cruise édesanyja” tokenek kapcsolódnak a “Mary Lee Pfeiffer” tokenekhez, de ennek fordítottja nem feltétlenül igaz. A modell nem érvel, csak játszik a szavakkal.

Érdekes tény: Az AI rendszerek többsége, beleértve a nyelvi modelleket, az emberi gondolkodás szimmetriáján alapuló problémák megoldására készült, de a gyakorlatban gyakran nem képesek a szimmetrikus érvelésre.

Források: Emily Bender, Timnit Gebru, Lukas Berglund