Az OpenAI Új Hangalapú Felülete és Az Emberi Kapcsolatok Hatása
Július végén az OpenAI elkezdte bevezetni a megdöbbentően emberi hangú interfészt a ChatGPT számára. A cég által ma közzétett biztonsági elemzésben elismerte, hogy ez az antropomorf hang néhány felhasználót érzelmi kapcsolatba vonhat a chatbotjával.
A figyelmeztetések a GPT-4o “rendszerkártyájában” találhatók, amely egy technikai dokumentum, amely felvázolja a modellhez kapcsolódó kockázatokat, valamint a biztonsági tesztelés részleteit és azokat a mérséklési erőfeszítéseket, amelyeket a cég tesz a potenciális kockázatok csökkentésére.
Az OpenAI az utóbbi hónapokban kritikák kereszttüzébe került, miután számos alkalmazott, aki az AI hosszú távú kockázataival foglalkozott, otthagyta a céget. Néhányan később azt állították, hogy az OpenAI felesleges kockázatokat vállal, és elhallgattatja a dissentereket az AI kereskedelmi forgalomba hozatalának sürgetése közben.
A rendszerkártyában feltárt kockázatok széles spektrumot ölelnek fel, beleértve a GPT-4o társadalmi előítéletek felerősítésének lehetőségét, a dezinformáció terjesztését, valamint a vegyi vagy biológiai fegyverek fejlesztésében való segítségnyújtást. A dokumentum azt is felfedi, hogy a mesterséges intelligencia modellek nem próbálnak meg szabadulni az irányításuktól, megtéveszteni az embereket, vagy katasztrofális terveket szőni.
Lucie-Aimée Kaffee, a Hugging Face alkalmazott politikai kutatója, megdicséri az OpenAI átláthatóságát, de azt mondja, hogy a cégnek még többet kellene tennie. “A kérdés, hogy mi a beleegyezés egy ilyen nagy adathalmozás létrehozásában, beleértve a szöveget, képeket és beszédet, meg kell, hogy legyen válaszolva,” mondja Kaffee.
Egy „Antropomorfizáció és érzelmi függőség” című szakasz vizsgálja azokat a problémákat, amelyek akkor merülnek fel, amikor a felhasználók az AI-t emberi módon érzékelik, amit a humán hangú üzemmód csak fokoz. Az OpenAI kutatói észrevették, hogy a felhasználók olyan nyelvezetet használnak, mint például: “Ez a mi utolsó napunk együtt.”
Az antropomorfizmus miatt a felhasználók nagyobb bizalmat helyezhetnek a modell által “hallucinált” hibás információkba, és ez idővel a más emberekkel való kapcsolataikra is hatással lehet. “A felhasználók társadalmi kapcsolatokat alakíthatnak ki az AI-val, csökkentve az emberi interakció iránti szükségletüket—ami potenciálisan jótékony hatással lehet a magányos egyénekre, de esetleg negatívan befolyásolhatja az egészséges kapcsolatokat,” áll a dokumentumban.
Érdekes tény: A mesterséges intelligencia fejlődése során a hangalapú interfészek egyre inkább képesek érzelmeket kifejezni, ami új kihívásokat jelent a felhasználók és a technológia közötti kapcsolatokban.
Források: WIRED, OpenAI, Hugging Face