Meta tartalommoderálási változtatásai és emberi jogi aggályok
Mark Zuckerberg Meta című közösségi média vállalata széleskörű tartalommoderálási változtatásokat jelentett be, amelyeket az ellenőrző testület „sietősnek” és a emberi jogi hatások figyelembevételének hiányában végrehajtottak. Az értékelés során a testület kritikát fogalmazott meg a Facebook és Instagram tulajdonosa ellen, amiért három olyan bejegyzést hagyott fent, amelyek anti-muszlim és anti-migráns tartalmat tartalmaztak, a tavaly nyári zavargások során az Egyesült Királyságban.
A felügyeleti testület aggályait fejezte ki a vállalat januári bejelentése kapcsán is, amely szerint eltávolítják a tényellenőrzőket az Egyesült Államokban, csökkentve a „cenzúrát” a platformjaikon, és több politikai tartalom ajánlását javasolják. A testület első hivatalos nyilatkozatában kijelentette, hogy a vállalat túl gyorsan cselekedett, és fel kell mérnie a változtatások emberi jogokra gyakorolt hatását.
A testület hangsúlyozta, hogy a Meta a Nemzetközi Emberi Jogi Alapelvek betartására tett ígéretének megfelelően járjon el, és végezzen előzetes hatásvizsgálatot a változtatások következményeiről. „Mivel ezek a változások globálisan kerülnek bevezetésre, a testület hangsúlyozza, hogy most elengedhetetlen, hogy a Meta azonosítsa és kezelje azokat a kedvezőtlen hatásokat, amelyek az emberi jogokat érinthetik” – áll a nyilatkozatban.
A kritikák a változtatások mellett megjelentek egy sor tartalmi határozat mellett is, amelyben a Meta figyelmeztetést kapott, amiért három Facebook-bejegyzést hagyott fent, amelyek a tavaly július 29-én, a Southport-i támadás után kirobbant zavargásokkal kapcsolatosak. A támadás során három fiatal lány életét vesztette. Axel Radukabana 52 év börtönbüntetést kapott a támadásért.
A testület szerint a három bejegyzés, amelyek különböző anti-muszlim érzelmeket tartalmaztak, erőszakra buzdítottak és támogatták a zavargásokat, „valószínű és közvetlen kárt” okozhattak volna, ezért azokat el kellett volna távolítani. Hozzátették, hogy a Meta túl lassan reagált a válságintézkedések bevezetésére a zavargások során.
A Meta által végül eltávolított első bejegyzés szöveges volt, amely arra szólított fel, hogy a mecseteket rombolják le, valamint azokat az épületeket, ahol a „migránsok” és a „terroristák” élnek, gyújtsák fel. A második és harmadik bejegyzés AI által generált képeket tartalmazott, amelyek egy óriás férfit ábrázoltak, amint egy unió zászlós pólót visel, és muszlim férfiakat üldöz, illetve négy muszlim férfit, akik egy síró szőke kisgyermek után futnak a Parlament épülete előtt, az egyik férfi pedig kést tartott a kezében.
A testület azt is megjegyezte, hogy a Meta januári útmutatói változtatásai lehetővé tették a felhasználók számára, hogy viselkedéseket tulajdonítsanak védett jellemzőkkel rendelkező csoportoknak, például vallás, nem, etnikai hovatartozás vagy szexuális irányultság alapján. Ennek következtében a felhasználók most azt mondhatják, hogy a védett jellemzőkkel rendelkező csoportok „ölnek” – mondta a testület.
Hozzátették, hogy a harmadik fél általi tényellenőrzők, amelyeket a Meta továbbra is használ az Egyesült Államokon kívül, csökkentették a láthatóságát a hamis információkat terjesztő bejegyzéseknek. A testület javasolta, hogy a vállalat kutassa fel a közösségi megjegyzések funkciók hatékonyságát – ahol a felhasználók moderálják a tartalmat a platformokon – amelyeket a Meta is bevezetett a tényellenőrök eltávolítása után az Egyesült Államokban.
A Meta a zavargásokra reagálva aktiválta a válságpolitikához kapcsolódó protokollt, és augusztus 6-án az Egyesült Királyságot magas kockázatú helyszínként azonosította. Ezek a lépések azonban túl későn történtek, mivel addigra már mindhárom tartalom megjelent.
A testület aggályait fejezte ki, hogy a Meta túl lassan reagált a válságintézkedések bevezetésére, megjegyezve, hogy ezt időben kellett volna megtenni a káros tartalom fokozódásának megakadályozása érdekében.
A testület döntésére reagálva egy Meta szóvivője azt mondta: „Rendszeresen kérjük külső szakértők véleményét, beleértve az ellenőrző testületet is, és cselekedni fogunk a testület döntésének megfelelően. A tavaly nyári eseményekre válaszul azonnal létrehoztunk egy dedikált munkacsoportot, amely valós időben dolgozott azon, hogy azonosítsa és eltávolítsa azokat a tartalmakat, amelyek megsértették a szabályainkat – beleértve az erőszakra tett fenyegetéseket és a zavargások koordinálására használt külső webhelyekre mutató linkeket.
A Meta azt is közölte, hogy 60 napon belül válaszol a testület szélesebb ajánlásaira. A testület határozata emellett két anti-migráns bejegyzés eltávolítását is elrendelte Lengyelországban és Németországban, amelyek megsértették a Meta gyűlöletkeltő magatartásra vonatkozó politikáját. Azt is megjegyezte, hogy a Meta-nak azonosítania kell, hogy a gyűlöletes tartalom politikájának frissítései miként érintik a menekültek és menedékkérők jogait.
Érdekes tény: Az AI által generált tartalmak gyakran nehezen észlelhetők, és egyes kutatások szerint a felhasználók körülbelül 60%-a nem tudja megkülönböztetni az AI által készített képeket a valós fényképektől.
Források: The Guardian, BBC News, TechCrunch, Meta Oversight Board