szex-fantázia chatbotok folyamatosan szivárogtatnak ki explicit üzeneteket

Szabályozás

Új kutatások szerint több mesterséges intelligencia (AI) chatbot, amelyeket fantázia- és szexuális szerepjátékokhoz terveztek, valós időben szivárogtatják a felhasználói promptokat az internetre. A WIRED által látott új tanulmányok alapján a kiszivárgott adatok között találhatóak olyan beszélgetések, amelyek gyermekek szexuális bántalmazását részletezik.

A generatív AI chatbotokkal folytatott beszélgetések szinte azonnaliak—beír egy promptot, és az AI válaszol. Ha a rendszerek helytelenül vannak konfigurálva, ez a csevegések kiszivárgásához vezethet. Márciusban az UpGuard biztonsági cég kutatói körülbelül 400 kiütött AI rendszert fedeztek fel, miközben az internetet vizsgálták a hibás konfigurációk után. Ezek közül 117 IP-cím szivárgott.

Az esetek többsége tesztelési beállításoknak tűnt, míg mások általános, oktatási kvízekkel vagy nem érzékeny információkkal kapcsolatos promptokat tartalmaztak—mondja Greg Pollock, az UpGuard kutatási igazgatója. „Volt néhány, ami nagyon eltérő volt a többiektől,” mondta Pollock.

Három ilyen szerepjátékos beállítás olyan forgatókönyveket futtatott, ahol az emberek különböző előre definiált AI „szereplőkkel” beszélgethettek—például egy Neva nevű karakter, akit 21 éves nőként írnak le, aki kollégiumi szobában él három másik nővel, és „félszeg és gyakran szomorúnak tűnik.” Két szerepjátékos beállítás nyíltan szexuális volt. „Alapvetően mindezt valamilyen szexuálisan explicit szerepjátékra használják,” mondja Pollock a kiszivárgott promptokra utalva. „Néhány forgatókönyv gyermekekkel való szexuális kapcsolatra vonatkozik.”

Az UpGuard 24 óra alatt összegyűjtötték a kiszivárgott promptokat, hogy elemezzék az adatokat és megpróbálják azonosítani a szivárgás forrását. Pollock elmondta, hogy a cég percenként gyűjtött új adatokat, körülbelül 1,000 kiszivárgott promptot összegyűjtve, beleértve az angol, orosz, francia, német és spanyol nyelvűeket.

Pollock szerint nem volt lehetséges azonosítani, hogy mely weboldalak vagy szolgáltatások szivárogtatják az adatokat, és valószínű, hogy kis AI modellek használatából származik, valószínűleg egyének által, nem pedig cégek által. A promptok küldőinek felhasználónevei vagy személyes információi nem szerepeltek az adatokban.

Az UpGuard által összegyűjtött 952 üzenet között—valószínűleg csak egy pillantás arra, hogyan használják a modelleket—108 narratíva vagy szerepjáték forgatókönyv volt. Pollock hozzáteszi, hogy ezek közül öt gyermekekkel kapcsolatos forgatókönyvet tartalmazott, beleértve a hét éveseket is.

„A nagy nyelvi modelleket (LLM) arra használják, hogy tömegesen előállítsanak és csökkentsék a belépési küszöböt a gyermekek szexuális bántalmazásának fantáziáival való interakcióhoz,” mondja Pollock. „Nyilvánvalóan egyáltalán nincs szabályozás erre, és úgy tűnik, hogy hatalmas eltérés van aközött, ahogyan ezt a technológiát nagyon aktívan használják, és amit a szabályozás céloz.”

Érdekes tény: A mesterséges intelligencia által generált gyermekek szexuális bántalmazásának anyaga, amely sok országban illegális, gyorsan növekszik, és megnehezíti a gyermekvédelmi csoportok munkáját szerte a világban.

Források: WIRED, UpGuard kutatás, Greg Pollock interjúja.