Új irányelvek az AI biztonsági intézet számára
A Nemzeti Szabványügyi és Technológiai Intézet (NIST) új utasításokat adott ki a tudósok számára, akik az Egyesült Államok Mesterséges Intelligencia Biztonsági Intézetével (AISI) együttműködnek. Az új irányelvek eltávolítják a „mesterséges intelligencia biztonság”, „felelős mesterséges intelligencia” és „AI méltányosság” kifejezéseket, és a hangsúlyt a „ideológiai elfogultság csökkentésére” helyezik, hogy elősegítsék az emberi virágzást és a gazdasági versenyképességet.
Az információk a frissített együttműködési kutatási és fejlesztési megállapodás részeként érkeztek, amelyet március elején küldtek el az AI Biztonsági Intézet konzorciumi tagjainak. A korábbi megállapodás arra ösztönözte a kutatókat, hogy technikai munkát végezzenek, amely segíthet a nemi, faji, életkori vagy jövedelmi egyenlőtlenségekkel kapcsolatos diszkrét modellek viselkedésének azonosításában és javításában.
Az új megállapodás eltávolította az „autentikus tartalom hitelesítésére és annak származásának nyomon követésére” vonatkozó eszközök fejlesztésére vonatkozó említést, valamint a „szintetikus tartalom címkézését” is, ami a dezinformáció és a mélyhamisítványok nyomon követésére vonatkozó érdeklődés csökkenését jelzi. Ezen kívül hangsúlyozza Amerikát, kérve egy munkacsoportot, hogy dolgozzon ki tesztelési eszközöket „Amerika globális AI helyzetének bővítésére”.
„A Trump-adminisztráció eltávolította a biztonság, méltányosság, dezinformáció és felelősség fogalmait, ami szerintem önmagáért beszél” – nyilatkozta egy kutató, aki az AI Biztonsági Intézettel együttműködő szervezetnél dolgozik, és kérte, hogy nevét ne hozzák nyilvánosságra a megtorlás félelme miatt.
A kutató úgy véli, hogy ezen problémák figyelmen kívül hagyása károsíthatja a felhasználókat azáltal, hogy lehetővé teszi az olyan algoritmusok ellenőrizetlen működését, amelyek a jövedelem vagy más demográfiai adatok alapján diszkriminálnak. „Ha nem vagy tech milliárdos, ez rosszabb jövőhöz vezet, mint amire számíthatsz” – állítja a kutató.
Elon Musk, aki jelenleg vitatott erőfeszítéseket tesz a kormányzati kiadások és bürokrácia csökkentésére Trump elnök nevében, kritikával illette az OpenAI és Google által készített AI modelleket. Musk gyakran említi azt az esetet, amikor az egyik Google modell arról vitatkozott, hogy helytelen lenne-e valakit félreértelmezni, még akkor is, ha ez megakadályozhatna egy nukleáris apokalipszist – ami rendkívül valószínűtlen forgatókönyv.
Az AI Biztonsági Intézetet a Biden-adminisztráció hozta létre egy végrehajtási rendelet keretében 2023 októberében, a mesterséges intelligencia gyors fejlődése miatt fokozott aggodalom idején. A Biden-kormányzat alatt az intézet feladata volt a legfejlettebb AI modellek potenciális problémáinak kezelése, például annak meghatározása, hogy használhatók-e kibertámadások indítására vagy vegyi, illetve biológiai fegyverek kifejlesztésére.
Egy érdekes tény: Az AI modellek politikai elfogultsága nemcsak a liberálisokat, hanem a konzervatívokat is érintheti, ahogy az Twitter ajánló algoritmusának vizsgálata is mutatja.
Források: WIRED, NIST, AISI



