Egy könyvalkalmazás mesterséges intelligenciát használt arra, hogy „megégesse” a felhasználóit. A végeredmény mégis anti-woke lett.

Fable: Az AI-történetek zűrzavara

A Fable, a népszerű közösségi média alkalmazás, amely a „könyvmolyok és sorozatnézők” menedékhelyeként hirdeti magát, nemrégiben bemutatta az AI-alapú év végi összegző funkcióját, amely az 2024-es könyvélményeiket foglalta össze. Az ötlet szórakoztatónak és játékosnak indult, de néhány összegzés furcsa, szembenálló hangvételt öltött.

Például Danny Groves összegzése arra kérdezett rá, hogy vajon „valaha vágyik-e egy egyenes, cisznemű fehér férfi nézőpontjára”, miután „sokszínűségi elkötelezettnek” nevezte őt. Ezzel szemben Tiana Trammell összegzése azzal a tanáccsal zárult, hogy „ne felejtsd el néha fehér szerzőt is keresni, rendben?”

Trammell megdöbbent, és hamarosan rájött, hogy nem ő az egyetlen, miután megosztotta tapasztalatait a Fable összegzéseivel a Threads platformon. „Több üzenetet kaptam,” mondta, olyan emberektől, akiknek az összegzéseik helytelenül kommentálták a „fogyatékosságot és a szexuális orientációt”.

Azóta, hogy a Spotify Wrapped debütált, az éves összegző funkciók elterjedtek az interneten, lehetővé téve a felhasználók számára, hogy visszatekintsenek arra, hány könyvet és hírcikket olvastak, hány dalt hallgattak meg és hány edzést végeztek. Néhány cég már most AI-t használ az adatok bemutatásának teljes átalakítására. A Spotify például AI által generált podcastot kínál, ahol robotok elemzik a hallgatási szokásainkat, és találgatnak az életünkről az ízlésünk alapján. A Fable is csatlakozott ehhez a trendhez, az OpenAI API-ját használva az olvasási szokások összegzésére, ám nem számítottak arra, hogy az AI modell olyan megjegyzéseket fog tenni, amelyek egy anti-woke véleményformáló hangnemét öltik magukra.

A Fable később elnézést kért több közösségi média csatornán, beleértve a Threads-t és az Instagramot, ahol egy videót tettek közzé, amelyben egy vezetőjük felelősséget vállalt. „Mélyen sajnáljuk, hogy néhány olvasói összegzésünk fájdalmat okozott ezen a héten,” írták a feliratban. „Jobbá fogjuk tenni.”

Kimberly Marsh Allee, a Fable közösségi vezetője elmondta a WIRED-nek, hogy a cég egy sor változtatáson dolgozik az AI összegzések javítása érdekében, beleértve az opciót azok számára, akik nem szeretnék ezeket, valamint a világosabb tájékoztatást, amely jelzi, hogy ezek AI által generáltak. „Jelenleg eltávolítottuk a modellt, amely játékosan bántotta az olvasót, és helyette a modell egyszerűen összegzi a felhasználó könyv ízlését,” mondta.

Az AI finomítása azonban nem minden felhasználónak tűnik elegendő válasznak. A fantasy és romantikus író, A.R. Kaufer megdöbbent, amikor látta a közösségi médiában néhány összegzést. „Azt kell mondaniuk, hogy teljesen megszüntetik az AI-t. És nyilatkozatot kell tenniük, nem csupán az AI-ról, hanem egy bocsánatkérést is a sértettek részére,” mondta Kaufer. „Ez a ‘bocsánatkérés’ a Threads-en nem tűnik őszintének, hiszen az alkalmazást ‘játékosnak’ nevezik, mintha ez valahogyan felmentene a rasszista/szexista/fogyatékkal élőkre vonatkozó idézetek alól.” Kaufer ennek következtében úgy döntött, hogy törli Fable fiókját.

Trammell is így tett. „A megfelelő lépés az lenne, ha letiltanák a funkciót, és alapos belső tesztelést végeznének, újonnan bevezetett védelmi intézkedések alkalmazásával, hogy biztosítsák, hogy a lehető legjobban megakadályozzák, hogy további felhasználók kárt szenvedjenek,” mondta.

Groves egyetértett. „Ha az egyedi olvasói összegzések nem fenntarthatóak, mert a csapat kicsi, akkor inkább lemondok róluk, mintsem olyan ellenőrizetlen AI eredményekkel szembesüljek, amelyek sértő nyelvezetet vagy kifejezéseket tartalmazhatnak,” mondta. „Ez az én véleményem… feltételezve, hogy a Fable vágyik egy meleg, cisznemű fekete férfi nézőpontjára.”

A generatív AI eszközök már hosszú múltra tekintenek vissza a rasszhoz kapcsolódó hibáikban. 2022-ben a kutatók megállapították, hogy az OpenAI képgeneráló rendszere, a Dall-E rossz szokása volt, hogy nem fehér embereket mutatott, amikor „börtönőröket” kértek tőle, és csak fehér embereket, amikor „vezérigazgatókat” ábrázolt. Tavaly ősszel a WIRED arról számolt be, hogy számos AI keresőmotor cáfolt és rasszista elméleteket hozott a felszínre arról, hogy a fehér emberek genetikailag felsőbbrendűek más rasszokkal szemben.

A túllihegés is néha problémává vált: a Google Gemini-t tavaly erőteljes kritikával illették, amikor folyamatosan a második világháborús nácikat színes bőrű emberekként ábrázolta, hibásan a befogadás érdekében. „Amikor láttam a megerősítést, hogy a generatív AI készítette ezeket az összegzéseket, nem lepődtem meg,” mondta Groves. „Ezeket az algoritmusokat programozók építik, akik egy elfogult társadalomban élnek, így természetesen a gépi tanulás is hordozni fogja az elfogultságokat, akár tudatosan, akár tudattalanul.”

Érdekes tény: Az AI által generált szövegek nemcsak hogy egyre elterjedtebbek, hanem sok esetben a tartalom minősége is folyamatosan javul, amely a nyelvi modellek fejlődésének köszönhető.

Források: WIRED, Fable, Threads, Instagram