Deepfake: Az új kihívás a közösségi médiában
A világ választásai közepette, ahol az Egyesült Királyság, az Egyesült Államok és Franciaország is szavazás elé néz, az dezinformáció zavarja a közösségi médiát. Az egyik legnagyobb aggodalom a deepfake, vagyis a mesterséges intelligenciával generált képek vagy hangok, amelyek politikai vezetőket ábrázolnak félrevezető módon, és amelyek befolyásolhatják az eredményeket.
Bár az Egyesült Királyság választásai során eddig nem voltak jelentős tényezők, a világ más részeiről – beleértve az Egyesült Államokat is, ahol elnökválasztás közeleg – folyamatosan érkeznek példák. Íme néhány vizuális elem, amelyeket érdemes figyelni:
Furcsaságok a száj vagy az áll körül
A deepfake videókban a száj környéke lehet a legnagyobb árulkodó jel. Kevesebb ránc lehet a bőrön, kevesebb részlet a száj körül, vagy az áll homályosnak vagy elmosódottnak tűnhet. A hang és a száj közötti rossz szinkronizáció is egy másik jel lehet.
Ez a 2023. június 17-én közzétett deepfake videó Nigel Farage-t mutatja, amint Rishi Sunak házát rombolja le a Minecraftban. Ez egy trend része, amely politikusokat ábrázol szatirikus deepfake videókban, amint az online játékot játsszák. Néhány nappal később megjelent egy másik szimulációs videó Keir Starmer-ről, amint csapdát állít “Nigel kocsmájában”.
Különös beszédelemek
Egy másik deepfake videó, amely Keir Starmer-t mutatja, amint egy befektetési programot kínál, az ő 2023-as újévi beszédének szerkesztett hanganyagával készült. Ha figyelmesen hallgatod, észreveheted, hogy a mondatszerkezet furcsa, például „pounds 35,000 a month”.
Az arc és a test közötti konzisztencia
Ez a deepfake videó, amely az ukrán elnököt, Volodimir Zelenszkijt mutatja, amint felszólítja a civileket, hogy tegyék le a fegyvert az orosz katonák előtt, 2022 márciusában terjedt el. A fej aránytalanul nagy a test többi részéhez képest, és különbség van a nyak és az arc bőrszíne között.
Folytonossági hiány a videóklipben
Ez a videó, amely hamisan mutatja be az amerikai külügyminisztérium szóvivőjét, Matthew Millert, amint igazolja az ukrán katonai csapásokat az oroszországi Belgorodra, 2024 májusában terjedt el. A videó során a szóvivő nyakkendője és inge színe változik.
Extra ujjak, kezek, végtagok
Figyelj arra, hogy vannak-e felesleges ujjak, lábak, karok, és furcsa kinézetű kezek a mesterséges intelligenciával generált képeken. Egy kép, amely állítólag Joe Biden amerikai elnököt és Kamala Harris alelnököt ábrázolja, amint Donald Trump vádemelését ünneplik, 2023 áprilisában terjedt el a Twitteren. Jelek, hogy mesterséges intelligenciával készült, például Kamala Harris jobb kezén hat ujj van.
Elrontott betűk és számok
A mesterséges intelligencia képgenerátorok nehezen reprodukálják a számokat és a szövegeket. Ez a hamis Trump mugshot, amelyet 2023 áprilisában tettek közzé, egy ilyen eszközzel készült. Láthatod, hogy a háttérben egy magasságmérő helyett értelmetlen számok és betűk kombinációja van.
Rángatózó videószerkesztések
Egyes manipulált képeket olyan amatőr módon raknak össze, hogy könnyen felismerhetők. Ezeket „cheapfake”-eknek nevezik, és gyakran egyszerű videószerkesztő szoftverekkel és más lo-fi technikákkal készülnek. Közvetlenül a mexikói választások előtt egy videót szerkesztettek, amelyben Claudia Sheinbaum elnökjelöltet mutatják, amint azt mondja, hogy ha megválasztják, bezárja a templomokat.
Érdekesség: A mesterséges intelligencia által generált képek és videók felismerése egyre nehezebb, mivel az AI technológiák gyors ütemben fejlődnek. Egyes kutatások szerint a következő 5 évben a deepfake technológia annyira fejlett lesz, hogy manuális módszerekkel szinte lehetetlen lesz felismerni őket.
Források: BBC, Alan Turing Institute, Reality Defender