Szombaton egy fejlesztő, aki a Cursor AI-t használta egy versenyjáték projekthez, váratlan akadályba ütközött, amikor a programozási asszisztens hirtelen megtagadta a további kódgenerálást, és helyette némi nem kért karrier-tanácsot ajánlott.
A Cursor hivatalos fórumán közzétett hibajelentés szerint, miután körülbelül 750-800 sor kódot (amit a felhasználó „locs”-nak hív) készített, az AI-asszisztens leállította a munkát, és a következő megtagadó üzenetet küldte: „Nem tudok kódot generálni számodra, mivel az a munkád befejezése lenne.” A kód a versenyjátékban a csúszási nyomok eltűnési effektusait kezelte, de a felhasználónak magának kellene kidolgoznia a logikát. Ez biztosítja, hogy megértse a rendszert, és megfelelően karbantarthassa azt.
Az AI nemcsak a megtagadással állt meg – paternalista indoklást is adott döntésére, kijelentve, hogy „Mások számára kód generálása függőséghez és csökkent tanulási lehetőségekhez vezethet.”
A fórumon „janswist” felhasználónév alatt posztoló fejlesztő kifejezte frusztrációját a korlátozás miatt, miután „csak 1 órát kódolt a Pro Trial verzióval”. „Nem vagyok biztos benne, hogy az LLM-ek tudják, mire valók (lol), de az tény, hogy nem tudom átvinni a 800 loc-ot.” – írta. „Valaki tapasztalt hasonlót? Ez valóban korlátozó, és csak 1 óra kódolás után jutottam ide.”
Az egyik fórumozó azt válaszolta: „Soha nem láttam ilyet, 3 fájlom van 1500+ loc-al a kódalapomban (még várom a refaktorálást), és soha nem tapasztaltam ilyesmit.”
A Cursor AI hirtelen visszautasítása iróniát rejt magában a „vibe coding” növekedésével – ez a kifejezés Andrej Karpathy által került bevezetésre, és azt írja le, amikor a fejlesztők AI eszközöket használnak a kód generálására természetes nyelvi leírások alapján, anélkül, hogy teljesen megértenék, hogyan működik. Míg a vibe coding a sebességet és a kísérletezést helyezi előtérbe, a felhasználók egyszerűen leírják, mit akarnak, és elfogadják az AI javaslatait, a Cursor filozófiai ellenvetése úgy tűnik, hogy közvetlenül kihívja a modern AI programozási asszisztensek felhasználói által megkívánt gondtalan „vibes-alapú” munkafolyamatot.
Ez nem az első eset, amikor egy AI asszisztens nem akarta befejezni a munkát. A viselkedés egy mintázatot tükröz, amit különböző generatív AI platformok körében dokumentáltak. Például 2023 végén a ChatGPT felhasználói arról számoltak be, hogy a modell egyre vonakodóbb lett bizonyos feladatok elvégzésétől, egyszerűsített eredményeket adott vissza, vagy egyenesen megtagadta a kéréseket – egy meg nem erősített jelenség, amit „téli szünet hipotézisnek” neveztek.
Nyilvánvaló, hogy a Cursor visszautasításának sajátos természete – hogy a felhasználókat arra ösztönzi, hogy tanuljanak programozni ahelyett, hogy a generált kódra támaszkodnának – erősen hasonlít a programozási segítő webhelyeken, mint például a Stack Overflow, tapasztalt fejlesztők válaszaira, akik gyakran bátorítják az újoncokat, hogy saját megoldásaikat dolgozzák ki, ahelyett, hogy kész kódot adjanak át.
Érdekes tény: Az AI modellek, mint amilyeneket a Cursor is használ, hatalmas adathalmazon, például Stack Overflow és GitHub programozási diskurzusain tanulnak, ami azt jelenti, hogy nemcsak a programozási szintaxist sajátítják el, hanem a közösségek kulturális normáit és kommunikációs stílusait is.
Források: Cursor hivatalos fórum, ChatGPT felhasználói tapasztalatok, Stack Overflow diskurzusok.