Az Anthropic figyelmeztetése az AI rendszerek kockázataira
Az Anthropic figyelmeztette a döntéshozókat az AI rendszerek potenciális kockázataira, és jól strukturált szabályozás szükségességére hívta fel a figyelmet, hogy elkerüljük a lehetséges katasztrófákat. Az organizáció hangsúlyozta, hogy a célzott szabályozás elengedhetetlen az AI előnyeinek kihasználásához, miközben mérsékeljük a veszélyeiket.
Ahogy az AI rendszerek fejlődnek a matematikai, érvelési és programozási képességek terén, úgy a potenciális visszaélés lehetősége is növekszik, különösen a kiberbiztonság, valamint a biológiai és kémiai tudományok területén.
Az Anthropic figyelmeztetése szerint a következő 18 hónap kritikus fontosságú a döntéshozók számára, mivel a proaktív megelőzés lehetőségei csökkennek. Különösen aggasztó, hogy az Anthropic Frontier Red Team kiemeli, hogy a jelenlegi modellek már most is hozzájárulhatnak különböző kiber támadási feladatokhoz, és a jövőbeli modellek várhatóan még hatékonyabbak lesznek.
Kémiai és biológiai visszaélések
Különösen aggasztó, hogy az AI rendszerek exacerbeálhatják a kémiai, biológiai, radiológiai és nukleáris (CBRN) visszaéléseket. Az Egyesült Királyság AI Biztonsági Intézete megállapította, hogy több AI modell képes most már PhD szintű emberi szakértelemmel válaszokat adni tudományos kérdésekre.
A kockázatok kezelésére az Anthropic részletezte a Felelős Méretezési Politika (RSP) nevű keretrendszerét, amelyet 2023 szeptemberében adtak ki mint hatékony ellenintézkedést. Az RSP megköveteli a biztonsági és védelmi intézkedések növelését az AI képességek összetettségének megfelelően.
Az RSP keretrendszer rugalmas és iteratív, rendszeres értékeléseket végezve az AI modellekről, lehetővé téve a biztonsági protokollok időben történő finomítását. Az Anthropic elmondta, hogy elkötelezett a biztonsági intézkedések fenntartása és fejlesztése mellett, különösen a biztonság, az értelmezhetőség és a bizalom területein, biztosítva, hogy megfeleljenek az RSP által előírt szigorú biztonsági normáknak.
Globális szabályozás szükségessége
Az Anthropic úgy véli, hogy az RSP széleskörű alkalmazása az AI iparban, bár elsősorban önkéntes, elengedhetetlen az AI kockázatok kezeléséhez. Az átlátható és hatékony szabályozás kulcsfontosságú a társadalom megnyugtatása érdekében az AI cégek biztonság iránti ígéreteinek betartásáról. A szabályozási kereteknek azonban stratégiai jellegűeknek kell lenniük, ösztönözve a megfelelő biztonsági gyakorlatokat anélkül, hogy felesleges terheket rótnának a vállalatokra.
Az Anthropic olyan szabályozásokat képzel el, amelyek világosak, fókuszáltak és alkalmazkodnak a fejlődő technológiai tájhoz, érvelve amellett, hogy ezek létfontosságúak a kockázatok mérséklése és az innováció ösztönzése között.
Az Egyesült Államokban az Anthropic javasolja, hogy a szövetségi jogszabályok lehetnek a végső válasz az AI kockázatok szabályozására, bár az állami kezdeményezéseknek be kell lépniük, ha a szövetségi intézkedések késlekednek. A világ különböző országai által kidolgozott jogszabályi kereteknek lehetővé kell tenniük a standardizálást és a kölcsönös elismerést, hogy támogassák a globális AI biztonsági agendát, minimalizálva a szabályozási megfelelés költségeit a különböző régiókban.
Továbbá, az Anthropic foglalkozik a szabályozásokkal szembeni szkepticizmussal is, hangsúlyozva, hogy a túl széles, felhasználás-orientált szabályozások hatékonyak lennének az általános AI rendszerek számára, amelyek sokféle alkalmazással rendelkeznek. Ehelyett a szabályozásoknak a modellek alapvető tulajdonságaira és biztonsági intézkedéseire kell összpontosítaniuk.
Miközben a széles kockázatokra összpontosít, az Anthropic elismeri, hogy egyes azonnali fenyegetések, mint például a deepfake technológia, nem képezik a jelenlegi javaslataik fókuszát, mivel más kezdeményezések foglalkoznak ezekkel a közelibb időszakú kérdésekkel.
Végül az Anthropic hangsúlyozza a szabályozások fontosságát, amelyek ösztönzik az innovációt, nem pedig elfojtják azt. Az első megfelelési teher, bár elkerülhetetlen, minimalizálható rugalmas és gondosan megtervezett biztonsági tesztekkel. A megfelelő szabályozás akár a nemzeti érdekek védelmét, akár a magánszektor innovációját segítheti azáltal, hogy megvédi az intellektuális tulajdont a belső és külső fenyegetésekkel szemben.
Az Anthropic célja az, hogy empirikusan mért kockázatokra összpontosítva olyan szabályozási környezetet alakítson ki, amely sem az nyílt, sem a zárt forrású modellek ellen nem elfogult. A cél világos: a határokon túli AI modellek jelentős kockázatainak kezelése szigorú, de rugalmas szabályozással.
Érdekes tény: Az AI rendszerek képesek már PhD szintű válaszokat adni tudományos kérdésekre, ami új kihívások elé állítja a tudományos közösséget.
Források: Anthropic, Egyesült Királyság AI Biztonsági Intézete.