Generatív AI és a Politikai Táj
Nemrégiben Donald Trump, az Egyesült Államok volt elnöke és elítélt bűnöző, egy sor fotót tett közzé, amelyek állítólag Taylor Swift popcsillag rajongóit ábrázolták, amint támogatták elnöki kampányát. A képek úgy tűntek, mint amelyek AI által készültek, és a WIRED megerősítette, hogy valószínűleg manipulálták őket, miután átfuttatták őket a True Media nonprofit szervezet detektáló eszközén, amely „szignifikáns bizonyítékokat” talált a manipulációra.
A generatív AI politikai célú felhasználása egyre gyakoribbá válik, és a WIRED nyomon követi ezt a jelenséget a világ választásain. Az Egyesült Államokon és néhány európai országon kívül azonban nehéz az AI által generált tartalom észlelése, mivel a rendszerek képzésében lévő elfogultságok miatt a újságírók és kutatók alig rendelkeznek erőforrásokkal a diszinformáció áradatának kezelésére.
Az AI Generált Tartalom Azonosítása
A médiában generált vagy manipulált tartalom észlelése még mindig egy fejlődő terület, amely a generatív AI cégek hirtelen megugrására adott válasz. Sabhanaz Rashid Diya, a Tech Global Institute alapítója elmondta, hogy „sokkal több könnyen hozzáférhető eszköz és technológia áll rendelkezésre, amely lehetővé teszi a szintetikus média létrehozását, mint amennyi a detektálásra áll rendelkezésre.”
A piacon található legtöbb eszköz csak 85-90% közötti bizalmi szinttel képes meghatározni, hogy valami AI által készült-e, mondta Sam Gregory, a Witness nonprofit programigazgatója. Az olyan országokban, mint Banglades vagy Szenegál, ahol a szereplők nem fehér bőrűek vagy nem angolul beszélnek, ez a bizalmi szint drámaian csökken.
Az AI Modellek Képzése
A modellek többsége nyugati piacokra van optimalizálva, így nem képesek jól azonosítani azokat a tartalmakat, amelyek kívül esnek ezeken a paramétereken. Richard Ngamita, a Thraets nonprofit polgári technológiai szervezet alapítója hangsúlyozta, hogy „az [Afrikából származó] adataink többsége papíralapú.” Ez azt jelenti, hogy amennyiben az adatok nincsenek digitalizálva, az AI modellek nem képesek tanulni belőlük.
Az AI modellek hiányos adatokkal való képzése gyakran hamis pozitív eredményeket ad, azaz a valódi tartalmakat AI által generáltként azonosítja, vagy hamis negatívakat, az AI által generált tartalmakat valósként azonosítja. Diya elmondta, hogy „sok hamis pozitív keletkezik, mert nem a megfelelő adatokon lettek kiképezve.”
A Globális Dilemmák
Az olcsóbb telefonok, amelyek alacsonyabb minőségű médiát készítenek, szintén bonyolítják a detektálást, mivel a legtöbb kezdeti deepfake detektáló eszköz magas minőségű médián lett kiképezve. Gregory kiemelte, hogy „a háttérzaj vagy a közösségi média videóinak tömörítése is hamis pozitív vagy negatív eredményeket adhat.”
Diya aggódik amiatt, hogy a nem megfelelő eszközök használata súlyos következményekkel járhat a politikai szinten, mivel törvényhozókat ösztönözhet a nem létező problémákra való reagálásra. „Óriási kockázat rejlik abban, hogy inflálják ezeket a számokat,” mondta.
A generatív AI nem az egyetlen módja a manipulált média létrehozásának. Az úgynevezett „cheapfakes”, amelyek félrevezető címkézéssel vagy hang- és videóanyagok egyszerű lassításával vagy szerkesztésével készülnek, szintén gyakoriak a globális délen.
Ngamita csapata egy európai egyetemmel működik együtt, ahol tartalmakat küldhetnek ellenőrzésre, azonban ez a folyamat időigényes, és a kárt addigra már okozta a hamis információ.
A WIRED és más források szerint a detektáló eszközök fejlesztése nem egyszerű feladat, és a támogatásoknak a megbízhatóbb információs ökoszisztémák kialakítására kellene irányulniuk.
Érdekes tény: Az AI technológiák 2023-ban több mint 21 milliárd dollárnyi befektetést vonzottak, ami tükrözi a generatív AI iránti növekvő érdeklődést.
Források: WIRED, True Media, Tech Global Institute, Witness, Thraets