Az Egyesült Királyságnak sürgősen szüksége van egy rendszerre az AI visszaélések és hibák nyomon követéséhez, figyelmeztet a thinktank


Az Egyesült Királyságnak Rendszerre Van Szüksége az AI Hibák és Visszaélések Nyilvántartására

Az Egyesült Királyságban sürgősen szükség van egy rendszerre az mesterséges intelligencia (AI) hibáinak és visszaéléseinek rögzítésére, különben a miniszterek nem lesznek tisztában a technológiával kapcsolatos riasztó eseményekkel – állítja egy jelentés. A következő kormánynak létre kell hoznia egy rendszert az AI-val kapcsolatos incidensek nyilvántartására a közszolgáltatásokban, és fontolóra kell vennie egy központi adatbázis létrehozását az AI-val kapcsolatos események összegyűjtésére az egész Egyesült Királyságban – javasolta a Centre for Long-Term Resilience (CLTR) nevű agytröszt.

A CLTR, amely a kormányzati válaszokat vizsgálja előre nem látható válságokra és extrém kockázatokra, úgy véli, hogy egy ilyen jelentési rendszer elengedhetetlen a technológia sikeres használatához. A jelentés szerint a 2014 óta a hírportálok által rögzített 10,000 AI „biztonsági incidens” szerepel az OECD (Gazdasági Együttműködési és Fejlesztési Szervezet) adatbázisában. Az OECD definíciója szerint a káros AI incidensek fizikai, gazdasági, hírnévi és pszichológiai károkat is magukban foglalhatnak.

Az OECD AI biztonsági incidensek monitorja többek között olyan eseményeket rögzít, mint Keir Starmer, a Munkáspárt vezetőjének deepfake videója, amelyben állítólag bántalmazza pártja munkatársait, vagy a Google Gemini modellje, amely színes bőrűként ábrázolja a második világháború német katonáit. Az incidensek között szerepelnek az önvezető autók körüli problémák és egy férfi esete, aki egy chatbotból merített bátorítást a néhai királynő meggyilkolásának tervezéséhez.

„Az incidensjelentés átalakító szerepet játszott a biztonságkritikus iparágakban, mint például a légi közlekedés és az orvostudomány. De ez nagyrészt hiányzik az AI-re vonatkozó szabályozási környezetből. Ez vakon hagyja a brit kormányt az AI használatából eredő incidensekkel szemben, gátolva a válaszadási képességét,” mondta Tommy Shaffer Shane, a CLTR politikai menedzsere és a jelentés szerzője.

A CLTR szerint a brit kormánynak követnie kellene a biztonságkritikus iparágak példáját, és be kellene vezetnie egy „jól működő incidensjelentési rendszert”. A CLTR szerint sok AI incidens valószínűleg nem tartozna a brit felügyeleti szervek hatáskörébe, mivel nincs olyan szabályozó, amely a legmodernebb AI rendszerekre, például chatbotokra és kép generátorokra összpontosítana. A Munkáspárt kötelező szabályozást ígért a legfejlettebb AI vállalatok számára.

„A DSIT-nek prioritásként kell kezelnie annak biztosítását, hogy a brit kormány ne a hírekből értesüljön az ilyen új károkról, hanem bevált incidensjelentési folyamatok révén,” áll a jelentésben.

Érdekes tény: Az AI biztonsági incidensek monitorozása segíthet azonosítani és megelőzni az olyan jövőbeli károkat, amelyek csak teljes kiadásuk után jelentkeznek, annak ellenére, hogy az Egyesült Királyság AI Biztonsági Intézete tesztelte azokat.

Források: Centre for Long-Term Resilience (CLTR), OECD