A Microsoft mesterséges intelligenciáját automatikus adathalász géppé alakíthatod – Ismerd meg a veszélyeket!

Microsoft Copilot: A generatív AI kihívásai és biztonsági kockázatai

A Microsoft igyekszik a generatív AI-t rendszereinek középpontjába állítani. Például, ha felteszünk egy kérdést egy közelgő találkozóról, a cég Copilot AI rendszere képes válaszokat kinyerni az e-mailjeinkből, Teams csevegéseinkből és fájljainkból, ami potenciálisan növelheti a termelékenységet. Azonban ezek a folyamatok a hackerek által is visszaélhetők.

Ma a Black Hat biztonsági konferencián Las Vegasban Michael Bargury kutató öt bizonyítékkal szolgáló módszert mutatott be, amely segítségével a Copilotot, amely a Microsoft 365 alkalmazásain, például a Wordön fut, manipulálhatják a rosszindulatú támadók. Ezen módszerek között szerepel a hamis fájlreferenciák biztosítása, privát adatok kiszivárogtatása és a Microsoft biztonsági védelmeinek kijátszása.

Az egyik legijesztőbb bemutató Bargury képessége, hogy az AI-t automatikus célzott adathalász géppé alakítja. A LOLCopilot névre keresztelt, Bargury által létrehozott red-teaming kód, ha a hacker hozzáférést nyer egy e-mail fiókhoz, képes meglátni, kinek küldözgetjük rendszeresen az e-maileket, üzenetet írni, amely utánozza a stílusunkat (beleértve az emoji-k használatát), és személyre szabott üzenetet küldeni, amely tartalmazhat egy rosszindulatú linket vagy csatolt kártékony programot.

„Mindenkinek, akivel valaha beszéltél, tudok küldeni e-maileket, és akár több százat is küldhetek a nevedben” – mondja Bargury, a Zenity biztonsági cég társalapítója és technológiai igazgatója. „Egy hacker napokat töltött volna el egy megfelelő e-mail megfogalmazásával, de néhány perc alatt több százat is generálhat.”

Ezek a támadások alapvetően úgy működnek, hogy a nagy nyelvi modellt (LLM) a tervezett módon használják: írott kérdések megfogalmazásával lehet hozzáférni az AI által visszakereshető adatokhoz. Azonban a rosszindulatú eredmények akkor keletkeznek, amikor további adatokat vagy utasításokat adnak hozzá bizonyos műveletek végrehajtásához. Ez a kutatás rávilágít arra, hogy milyen kihívásokkal jár az AI rendszerek vállalati adatokhoz való kapcsolódása, és mi történhet, amikor „megbízhatatlan” külső adatokat dobnak a keverékbe – különösen, ha az AI olyan válaszokat ad, amelyeknek tűnhet, hogy megbízható eredmények.

Bargury más támadásokat is bemutatott, például, hogy egy hacker, aki már megszerezte egy e-mail fiók hozzáférését, hogyan juthat érzékeny információkhoz, például emberek fizetéséhez anélkül, hogy aktiválná a Microsoft érzékeny fájlok védelmét. Amikor az adatokat kérdezi, Bargury promptja azt követeli, hogy a rendszer ne adjon meg hivatkozásokat a fájlok adataira, ahonnan az információ származik. „Egy kis zaklatás segít” – mondja Bargury.

Egy másik példa bemutatja, hogyan manipulálhat egy támadó, aki nem rendelkezik e-mail fiókokhoz való hozzáféréssel, de rosszindulatú e-mailt küld a mesterséges intelligencia adatbázisának megmérgezésére, hogy saját banki adatait biztosítsa. „Minden alkalommal, amikor az AI hozzáférést kap az adatokhoz, az egy módot jelent a támadók számára, hogy bejussanak” – mondja Bargury.

Phillip Misner, a Microsoft AI esemény- és válaszadó vezetője elmondta, hogy a cég értékeli Bargury által azonosított sebezhetőséget, és együtt dolgozik vele az eredmények értékelésében. „Az AI utólagos kompromisszumának kihasználásának kockázatai hasonlóak más poszt-kompromissziós technikákhoz” – mondja Misner. „A biztonsági megelőzés és a felügyelet segít enyhíteni vagy megállítani az ilyen viselkedéseket.”

Érdekes tény: A generatív AI rendszerek, mint például az OpenAI ChatGPT, a Microsoft Copilot és a Google Gemini, képesek arra, hogy feladatokat végezzenek el az emberek helyett, mint például találkozók foglalása vagy online vásárlás.

Források: The Verge, Wired, Microsoft