Új Módszer az AI Modellek „Elfelejtésére”
A Tokiói Tudományegyetem (TUS) kutatói kifejlesztettek egy módszert, amely lehetővé teszi, hogy a nagy léptékű AI modellek szelektíven „elfelejtsenek” bizonyos adatcsoportokat. Az AI fejlődése forradalmi változásokat hozott különböző területeken, a egészségügytől kezdve az önvezető autókig.
Az olyan nagy léptékű, előképzett AI rendszerek, mint az OpenAI ChatGPT és a CLIP (Kontrasztív Nyelv-Kép Előképzés), átformálták a gépek iránti elvárásokat. Ezek a rendkívül általános modellek sokféle feladatot képesek kezelni, de működésükhöz óriási mennyiségű energia és idő szükséges, ami fenntarthatósági aggályokat vet fel.
Go Irie, az egyetem docense, aki a kutatást vezette, elmondta: „A gyakorlatban ritkán szükséges az összes objektum osztályának azonosítása. Például egy önvezető autó rendszerében elegendő lenne néhány korlátozott objektum osztály, mint a járművek, gyalogosok és közlekedési táblák felismerése.”
A kutatók célja, hogy a modellek „elfelejtsék” a felesleges vagy redundáns információkat, így a folyamatokat a szükséges adatokra összpontosíthassák. A kutatócsoport egy új módszert, az úgynevezett „fekete dobozos elfelejtést” mutatott be, amely az input promptok módosításával éri el, hogy az AI fokozatosan „elfelejtse” az adott osztályokat.
A kutatók a CLIP modellt célozták meg, amely képkategorizálási képességekkel rendelkezik. A Covariance Matrix Adaptation Evolution Strategy (CMA-ES) algoritmust alkalmazták, amely lépésről lépésre optimalizálja a megoldásokat. A kísérletek során a CLIP körülbelül 40%-át elfelejtette a célzott osztályoknak anélkül, hogy közvetlen hozzáférése lett volna a modell belső architektúrájához.
Ez a kutatás az első sikeres kísérlet, amely szelektív elfelejtést indukál egy fekete dobozos látás-nyelv modellben, ígéretes eredményekkel. Az AI modellek „elfelejtésének” előnyei között szerepel, hogy a modellek gyorsabbak, energiahatékonyabbak lehetnek, és képesek lehetnek gyengébb eszközökön futni, ezáltal elősegítve az AI alkalmazását olyan területeken, amelyeket korábban megvalósíthatatlannak tartottak.
Talán a legfontosabb, hogy ez a módszer választ adhat az AI egyik legnagyobb etikai kérdésére: a magánélet védelmére. Az AI modellek, különösen a nagy léptékűek, gyakran olyan hatalmas adatbázisokon képeznek, amelyek érzékeny vagy elavult információkat tartalmazhatnak. Az ilyen adatok eltávolítására irányuló kérések, különösen a „feledés jogának” törvényei fényében, jelentős kihívásokat jelentenek.
Az AI fejlődésének globális versenyében a Tokiói Tudományegyetem fekete dobozos elfelejtési megközelítése fontos irányt mutat előre, nemcsak a technológia alkalmazhatóságának és hatékonyságának növelése érdekében, hanem a felhasználók védelme érdekében is.
Érdekesség: A „felejtés” képessége nemcsak az AI modellek hatékonyságát növeli, hanem hozzájárulhat a személyes adatok védelméhez is, lehetővé téve a felhasználók számára, hogy jobban irányítsák, milyen adatokat tárolnak róluk a rendszerek.
Források: AI News, Tokiói Tudományegyetem, NeurIPS konferencia 2024.