Bemutatkozik a mesterséges intelligencia biztonságáért létrehozott szövetség (CoSAI) és alapító tagjai – ismerd meg a legújabb AI biztonsági forradalmat!


Bemutatkozik a Biztonságos AI Koalíció (CoSAI)

Az Aspen Biztonsági Fórumon, iparági partnereinkkel együtt, bemutatjuk a Biztonságos AI Koalíciót (CoSAI). Az elmúlt évben azon dolgoztunk, hogy összehozzuk ezt a koalíciót, amely célja átfogó biztonsági intézkedések előmozdítása az AI sajátos kockázatainak kezelésére, mind a valós időben felmerülő problémák, mind a jövőbeli kihívások esetében.

A CoSAI alapító tagjai közé tartozik az Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, Paypal és Wiz — és az OASIS Open nemzetközi szabvány- és nyílt forráskódú konzorcium alatt fog működni.

CoSAI első munkaterületei

Ahogyan az egyének, fejlesztők és cégek folytatják a közös biztonsági szabványok és legjobb gyakorlatok alkalmazását, a CoSAI támogatja ezt a kollektív befektetést az AI biztonságába. Ma megosztjuk a koalíció első három fókuszterületét, amelyeket az iparral és az akadémiával együttműködve fogunk kezelni:

AI rendszerek szoftverellátási lánc biztonsága: A Google folytatta a SLSA Provenance kiterjesztését az AI modellekre, hogy segítsen azonosítani, mikor biztonságos egy AI szoftver azáltal, hogy megérti, hogyan hozták létre és kezelték azt a szoftverellátási láncon keresztül. Ez a munkaterület célja az AI biztonságának javítása, útmutatást nyújtva a származás értékelésében, harmadik fél modell kockázatainak kezelésében és az AI alkalmazások teljes származásának értékelésében.

Védők felkészítése a változó kibertérbiztonsági környezetre: Az AI kormányzás napi kezelése során a biztonsági szakembereknek nincs egyszerű útjuk a biztonsági aggályok komplexitásának navigálásához. Ez a munkaterület egy védelmi keretrendszert fog kidolgozni, amely segít a védőknek azonosítani a befektetéseket és a mérséklési technikákat az AI használatának biztonsági hatásainak kezelésére. A keretrendszer a mérséklési stratégiákat az AI modellek támadó kibertérbiztonsági fejlesztéseinek megjelenésével fogja skálázni.

AI biztonsági kormányzás: Az AI biztonsági kérdéseinek kormányzása új erőforráskészletet és az AI biztonságának egyedi aspektusainak megértését igényli. A CoSAI egy kockázati és ellenőrzési taxonómiát, egy ellenőrző listát és egy pontozási rendszert fog kidolgozni, amely útmutatást nyújt a gyakorlók számára a felkészültségi értékelésekben, menedzsmentben, monitorozásban és az AI termékek biztonságának jelentésében.

Emellett a CoSAI együttműködik olyan szervezetekkel, mint a Frontier Model Forum, a Partnership on AI, a Open Source Security Foundation és az ML Commons, hogy előmozdítsa a felelősségteljes AI-t.

Érdekes tény: Az AI biztonsági kérdéseinek kezelése közben a fejlesztők akár 30%-kal több időt tölthetnek a biztonsági teszteléssel, mint a hagyományos szoftverek esetében. Források: Google AI Biztonsági Keretrendszer, OASIS Open, Aspen Biztonsági Fórum.