OpenAI fórum feltörése: Mi történt valójában?
Az elmúlt évben hackerek feltörték az OpenAI alkalmazottai által használt online fórumot, és ellopták a cég AI rendszereiről szóló bizalmas információkat. A The New York Times névtelen forrásai szerint a támadók hozzáfértek az AI technológiák tervezési részleteihez, de nem fértek hozzá azokhoz a rendszerekhez, ahol az OpenAI valójában fejleszti és tárolja AI-jait.
Az OpenAI vezetői 2023 áprilisában egy minden dolgozót érintő megbeszélésen jelentették be az incidenst, és tájékoztatták a cég igazgatótanácsát is. A nyilvánosság előtt azonban nem felfedték az esetet, mivel nem loptak el ügyfelekre vagy partnerekre vonatkozó adatokat. A források szerint nem értesítették a bűnüldöző szerveket, mivel nem hitték, hogy a hacker külföldi kormányzathoz kapcsolódik, így az incidens nem jelentett nemzetbiztonsági fenyegetést.
Egy OpenAI szóvivő a TechRepublicnak küldött e-mailben elmondta: „Ahogyan tavaly megosztottuk az Igazgatótanáccsal és az alkalmazottakkal, azonosítottuk és kijavítottuk az alapul szolgáló problémát, és továbbra is befektetünk a biztonságba.”
Az OpenAI alkalmazottak reakciói
Az alkalmazottakat aggodalommal töltötte el a fórum feltörésének híre, mivel úgy gondolták, hogy ez a cég sebezhetőségét mutatja, amelyet államilag támogatott hackerek is kihasználhatnak a jövőben. Ha az OpenAI csúcstechnológiája rossz kezekbe kerülne, az veszélyes célokra használható lenne, ami nemzetbiztonsági kockázatot jelenthetne.
Továbbá, a vezetők kezelése az incidens kapcsán néhány alkalmazottat arra késztetett, hogy megkérdőjelezzék, vajon az OpenAI elegendő lépést tesz-e a szellemi tulajdon védelmére a külföldi ellenfelektől. Leopold Aschenbrenner, a cég egykori technikai vezetője, azt állította, hogy kirúgták, miután egy podcastban felvetette ezeket az aggodalmakat az igazgatótanácsnak.
A ChatGPT macOS alkalmazás biztonsági problémái
A fórum feltörése nem az egyetlen jele annak, hogy az OpenAI számára a biztonság nem a legfontosabb prioritás. A múlt héten Pedro José Pereira Vieito adat mérnök felfedte, hogy az új ChatGPT macOS alkalmazás sima szövegként tárolja a csevegési adatokat, ami azt jelenti, hogy rosszindulatú szereplők könnyen hozzáférhetnek ezekhez az információkhoz, ha megszerzik a Mac-et.
Miután a Verge figyelmeztette erre a sebezhetőségre, az OpenAI kiadott egy frissítést, amely titkosítja a csevegéseket. „Tisztában vagyunk ezzel a problémával, és kiadtunk egy új verziót az alkalmazásból, amely titkosítja ezeket a beszélgetéseket. Elkötelezettek vagyunk amellett, hogy segítőkész felhasználói élményt nyújtsunk, miközben fenntartjuk magas biztonsági színvonalunkat,” mondta egy OpenAI szóvivő a TechRepublicnak küldött e-mailben.
A jövőbeli AI-biztonsági incidensek esélyei
Dr. Ilia Kolochenko, a Platt Law LLP partnere és a kiberbiztonsági gyakorlat vezetője úgy véli, hogy az OpenAI fórumának biztonsági incidense valószínűleg csak egy a sok közül. „A globális AI verseny nemzetbiztonsági kérdéssé vált sok ország számára, ezért az államilag támogatott kiberbűnözői csoportok és zsoldosok agresszíven célozzák meg az AI szolgáltatókat, a tehetséges startupoktól kezdve a technológiai óriásokig, mint a Google vagy az OpenAI,” mondta Kolochenko a TechRepublicnak küldött e-mailben.
Hackerek értékes AI szellemi tulajdonokat céloznak meg, mint például nagy nyelvi modellek, képzési adatok forrásai, technikai kutatások és kereskedelmi információk. Emellett hátsó ajtókat is telepíthetnek, hogy irányítsák vagy megzavarják a műveleteket, hasonlóan a nyugati országok kritikus nemzeti infrastruktúrájának közelmúltbeli támadásaihoz.
Érdekesség: Az OpenAI GPT-4 modellje autonóm módon képes kihasználni az egy napos sebezhetőségek 87%-át, egy tanulmány szerint.
Források: The New York Times, TechRepublic, The Verge