Mark Zuckerberg Meta vállalata elnézést kért, miután az Instagram felhasználói egy erőszakkal, gore-ral és állatbántalmazással teli tartalomáradattal találkoztak a Reels hírfolyamaikban. A felhasználók arról számoltak be, hogy a videók megjelenése egy nyilvánvaló algoritmushiba következménye volt, amely azt hivatott összeállítani, amit az emberek látnak az alkalmazásban.
A Reels az a funkció a közösségi média platformon, amely lehetővé teszi a felhasználók számára, hogy rövid videókat osszanak meg, hasonlóan a TikTokhoz. Egy Instagram fórumon a Redditen felhasználók posztolták a grafikus anyagról szóló tapasztalataikat, amelyek a hét közepén jelentek meg a hírfolyamaikban. Az egyik felhasználó a subreddit-en azt írta: “Legalább 10 embert láttam meghalni a Reels-en.”
További felhasználók említettek egy videót, amelyen egy férfit egy elefánt taposott halálra. Mások olyan felvételeket jelöltek meg, amelyekben egy férfit helikopter által szétszednek, illetve olyan videót, ahol “egy srác az arcát forró olajba nyomja”. Számos felhasználó posztolt olyan videókat, amelyekben a Reels hírfolyamukat “érzékeny tartalom” képernyők uralták, amelyek célja, hogy megvédjék a felhasználókat a grafikus anyagtól.
Az egyik felhasználó hírfolyamában megjelent erőszakos tartalmak listája, amelyet a technológiai híroldal, a 404 közölt, a következőket tartalmazta: egy férfi meggyújtása; egy férfi, aki közvetlen közelről lő egy pénztárost; videók egy “PeopleDeadDaily” nevű fiókból; és egy disznó, akit egy vassal vernek. A felhasználó, akiről szó van, egy kerékpározással kapcsolatos Instagram fiókkal rendelkezett, számolt be róla a 404 Media.
Az egyik Reddit felhasználó hozzátette: “Az elmúlt 24 órában úgy érzem, hogy az Instagram algoritmusa megzavarodott. A hírfolyamom tele van erőszakos Reels-ekkel – egymás után.” Azt is megjegyezte, hogy “az Instagram most megpróbálja megkérdőjelezni, hogy véletlenül egy ‘vérontás és káosz’ fiókot követtem-e. Értem, hogy a platform a ‘megtartás’ és ‘trendek’ köré épül, de tényleg azt hitték, hogy ez az út ahhoz, hogy az emberek többet görgessenek?”
A Meta szóvivője kijelentette: “Javítottunk egy hibát, amely miatt egyes felhasználók olyan tartalmakat láttak az Instagram Reels hírfolyamukban, amelyeket nem kellett volna ajánlani. Elnézést kérünk a hibáért.” A hiba a Meta tartalommoderálási megközelítésében bekövetkezett legutóbbi változások után történt. A cég azonban a 404 Media-nak azt mondta, hogy a grafikus videók özönlése nem kapcsolódik a Meta tartalomszabályainak átalakításához, amely magában foglalta a tényellenőrök eltávolítását és a cenzúra “drasztikus” csökkentését a platformjain.
A Meta tartalommal kapcsolatos irányelvei kimondják, hogy a cég eltávolítja az “különösen erőszakos vagy grafikus” tartalmakat, és hogy egyes képeket érzékeny tartalom képernyők védelme alatt tartanak. Az Egyesült Királyságban az Online Safety Act megköveteli a közösségi média platformoktól, hogy intézkedéseket tegyenek annak érdekében, hogy megakadályozzák a 18 év alattiak számára káros anyagok, például erőszakos, gyűlöletes vagy bántalmazó anyagok megjelenését, ami magában foglalja az algoritmusok konfigurálását az ilyen tartalmak kiszűrésére.
Az internetbiztonsági kampánycsoport egy “teljes magyarázatot” követelt arról, hogy mi történt az Instagram algoritmusával. A Molly Rose Alapítvány, amelyet a 2017-ben öngyilkosságot elkövetett brit tinédzser, Molly Russell családja alapított, azt mondta, hogy kérdések merülnek fel azzal kapcsolatban, hogy miért volt ilyen grafikus tartalom a platformon egyáltalán.
“Ahogy az Instagram visszavonja a tartalommoderálást, ez valószínűleg a jövő jele,” mondta Andy Burrows, az alapítvány vezérigazgatója. “A Meta változásai azt jelentik, hogy ez a típusú tartalom szabadabban elérhetővé válik, és gyakrabban ajánlják majd a felhasználói hírfolyamokban.”
Érdekes tény: Az AI algoritmusok folyamatosan fejlődnek, és a hibák kiküszöbölésére irányuló tanulmányok során a kutatók azt tapasztalták, hogy a hibás döntések gyakran a tanulási adatok torzulásából erednek.
Források: 404 Media, Reddit, Online Safety Act, Molly Rose Foundation.