Sci-fi-ból állami törvény: kalifornia forradalmi terve az AI katasztrófa megelőzésére


Kalifornia Új AI Szabályozása: Valódi Biztonság Vagy Túlzott Félelmek?

Egy jelentős törvényjavaslat és annak következményei az AI kutatásra

Kalifornia új törvényjavaslata, az SB-1047, amelyet Scott Wiener állami szenátor mutatott be, célja, hogy megvédje a közbiztonságot a nagyméretű AI modellek potenciális veszélyeitől. A törvényjavaslat előírja, hogy a megfelelően nagy AI modelleket fejlesztő cégeknek tesztelési eljárásokat és rendszereket kell bevezetniük a „biztonsági incidensek” megelőzésére és kezelésére.

A törvényjavaslatban részletesen meghatározzák a biztonsági incidenseket, amelyek közé tartoznak a „tömeges áldozatokkal járó vagy legalább 500 millió dolláros kárt okozó” események, mint például „kémiai, biológiai, radiológiai vagy nukleáris fegyverek létrehozása vagy használata”. Emellett említi a „más súlyos közbiztonsági és biztonsági károkat”, amelyek hasonló súlyosságúak.

Az AI modellek alkotói nem vonhatók felelősségre olyan károkért, amelyeket a modellükön kívüli, nyilvánosan hozzáférhető információk megosztása okoz. A törvényjavaslat főként azokkal a jövőbeli AI-kkal foglalkozik, amelyek „új fenyegetéseket jelenthetnek a közbiztonságra és biztonságra”.

Agyonbonyolított Félelmek?

A törvényjavaslat nyelvezete valószínűleg tükrözi az eredeti fogalmazója, Dan Hendrycks félelmeit. Hendrycks, a Center for AI Safety (CAIS) társalapítója, egy 2023-as Time Magazine cikkben azt állította, hogy „az evolúciós nyomások valószínűleg önfenntartó viselkedést alakítanak ki az AI-kban”, ami „az emberiség kiszorításához vezethet, mint a Föld domináns faja”.

Ha Hendrycksnek igaza van, akkor az SB-1047-hez hasonló törvényhozás ésszerű elővigyázatosságnak tűnik. A törvény támogatóinak, köztük Geoffrey Hinton és Yoshua Bengio AI szakértőknek, egyetértenek abban, hogy a törvényjavaslat szükséges lépés az előrehaladott AI rendszerek potenciális katasztrofális károsodásának megelőzése érdekében.

Mindazonáltal a kritikusok szerint az AI politika nem szabadna, hogy túlzó jövőbeli rendszerek félelmein alapuljon, amelyek inkább a tudományos fantasztikumra emlékeztetnek, mint a jelenlegi technológiára. „Az SB-1047-et eredetileg olyan nonprofit csoportok fogalmazták, amelyek hisznek a világvégében egy érző gép által,” mondta Daniel Jeffries, az AI közösség prominens alakja. „Nem lehet ebből a premisszából kiindulni és ésszerű, megalapozott biztonsági törvényt alkotni.”

Nyitott súlyok veszélyben?

Az SB-1047 bevezetése jelentős költséget róhat az AI kutatás-fejlesztésre, még a szokványos AI kutatásokra is. Timothy Lee, az Ars közreműködője, az Understanding AI hírlevelében kifejti, hogy a törvényjavaslat nyelvezete hogyan akadályozhatja meg az úgynevezett „nyitott súlyú” AI modellek terjedését. „A Meta például kiképezte Llama modelljeit arra, hogy visszautasítsák a kiberattakok, csalások, bombakészítés és egyéb káros tevékenységek támogatását,” írja Lee. „De a Meta valószínűleg nem tudja megakadályozni, hogy valaki letöltse az egyik modelljüket és finomhangolja ezeket a korlátozásokat.”

Meta’s Yann LeCun kiemelte ezt a kockázatot, írva a közösségi médiában, hogy „az SB1047 kaliforniai szabályozás lényegében megölheti a nyílt forráskódú AI-t és jelentősen lelassíthatja vagy megállíthatja az AI innovációt”.

Andrew Ng, a Google Brain alapítója és a Stanford egyetem professzora, egy közösségi média bejegyzésben azt írta, hogy a törvényjavaslat „alapvető hibát követ el azzal, hogy az AI technológiát szabályozza az AI alkalmazások helyett, és így nem teszi az AI-t valóban biztonságosabbá”.

Jeffries egyetért ezzel az állásponttal, mondván, hogy „teljesen el kellene vetnünk a törvényjavaslatot és az AI felhasználási esetek szabályozására kellene koncentrálnunk, nem a kutatás-fejlesztésre”.

Ahogy a törvényjavaslat további viták elé néz a végső szavazás előtt, az AI ipar megosztott marad. Kalifornia ezen összetett kérdés navigálásának módja precedenst teremthet a jövőbeli AI szabályozási erőfeszítések számára, ami különösen nagy tétet jelent minden érintett számára.

Érdekesség: Az AI kutatásban használt legnagyobb modellekhez szükséges számítási teljesítmény közel 100 000-szerese annak, amit egy átlagos laptop képes előállítani.

Források: Time Magazine, Center for AI Safety, Ars Technica