Fejlesztés
OpenAI és Anthropic megállapodásokat írtak alá az Egyesült Államok kormányával, amelyek lehetővé teszik számukra, hogy korai hozzáférést biztosítsanak frontvonalbeli mesterséges intelligencia modelljeikhez biztonsági értékelések céljából. A NIST csütörtöki bejelentése szerint az Egyesült Államok Mesterséges Intelligencia Biztonsági Intézete (AISI) hozzáférést kap a technológiákhoz „a nyilvános kiadás előtt és után”.
A két AI óriás által aláírt, nem jogilag kötelező érvényű megállapodások révén az AISI értékelheti modelljeik képességeit, és azonosíthatja, valamint mérsékelheti a biztonsági kockázatokat. Az AISI, amelyet a NIST alapított 2024 februárjában, a mesterséges intelligencia biztonságos, megbízható fejlesztésére és használatára vonatkozó végrehajtási utasítás prioritási intézkedéseire összpontosít.
Az együttműködés jelentősége
Elizabeth Kelly, az AISI igazgatója a sajtóközleményben elmondta: „A biztonság elengedhetetlen a forradalmi technológiai innovációk ösztönzéséhez. Ezekkel a megállapodásokkal várakozással tekintünk az Anthropic és OpenAI közötti technikai együttműködés megkezdésére a mesterséges intelligencia biztonságának fejlesztése érdekében.”
Jack Clark, az Anthropic társalapítója és politikai vezetője hozzátette: „A biztonságos, megbízható mesterséges intelligencia kulcsfontosságú a technológia pozitív hatásaihoz. Az Egyesült Államok Mesterséges Intelligencia Biztonsági Intézetével való együttműködésünk kihasználja széleskörű szakértelmüket, hogy alaposan teszteljük modelljeinket a széleskörű bevezetés előtt.”
Nemzetközi együttműködés
Az AISI azt is tervezi, hogy együttműködik az Egyesült Királyság Mesterséges Intelligencia Biztonsági Intézetével, amikor biztonsággal kapcsolatos visszajelzéseket adnak az OpenAI és az Anthropic számára. Áprilisban a két ország hivatalosan megállapodott abban, hogy együtt dolgoznak az AI modellek biztonsági tesztelésén.
Ez a megállapodás az előző novemberi globális AI Biztonsági Csúcstalálkozón megállapított kötelezettségek fenntartására irányult, ahol a világ kormányai elfogadták szerepüket a következő generációs AI modellek biztonsági tesztelésében.
Érdekesség: Az AI biztonságával foglalkozó kutatások során a tudósok felfedezték, hogy a mesterséges intelligencia modellek képesek önállóan azonosítani és csökkenteni a kockázatokat, a megfelelő irányelvek és tesztelési keretek mellett.
Források: NIST, TechRepublic, Reuters