Apple a gyermekszexuális visszaélések képeinek elleni küzdelemben kudarcot vall, állítják szakértők
Az Apple nem képes hatékonyan monitorozni platformjait vagy szkennelni a gyermekszexuális visszaélések képeit és videóit, állítják gyermekvédelmi szakértők, ami aggodalmat kelt azzal kapcsolatban, hogy a vállalat hogyan kezeli az ilyen anyagok mennyiségének növekedését, amely az mesterséges intelligenciához kapcsolódik.
A brit Országos Társaság a Gyermekek Kegyetlenséggel Szembeni Védelméért (NSPCC) azzal vádolja az Apple-t, hogy nagymértékben alulbecsüli, milyen gyakran jelenik meg gyermekszexuális visszaélési anyag (CSAM) termékeiben. Az NSPCC által megszerzett rendőrségi adatok szerint az Egyesült Királyságban és Walesben egy év alatt gyermekragadozók az Apple iCloud-ját, iMessage-ét és Facetime-ját használták CSAM tárolására és cseréjére több esetben, mint amennyit a vállalat az összes többi országban együttvéve jelentett.
Az információszabadság iránti kérelmek alapján összegyűjtött és kizárólag a Guardian-nal megosztott adatok szerint a gyermekvédelmi szervezet azt találta, hogy az Apple 2022 áprilisa és 2023 márciusa között Angliában és Walesben 337 rögzített gyermekszexuális visszaélési képpel kapcsolatos bűncselekményben volt érintett. 2023-ban az Apple mindössze 267 jelentést tett világszerte a platformjain található gyanús CSAM-ról az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központjának (NCMEC), ami éles ellentétben áll a nagy tech társakkal, mivel a Google több mint 1,47 milliót, és a Meta több mint 30,6 milliót jelentett.
Minden amerikai székhelyű tech vállalat köteles jelenteni az összes CSAM esetet, amit platformjukon észlelnek az NCMEC-nek. A Virginia-ban székelő szervezet jelentések elosztási központjaként működik, megtekinti azokat és továbbítja a releváns bűnüldöző szerveknek. Az iMessage egy titkosított üzenetküldő szolgáltatás, ami azt jelenti, hogy az Apple nem látja a felhasználók üzeneteinek tartalmát, de ugyanez igaz a Meta WhatsApp-jára is, amely 2023-ban körülbelül 1,4 millió gyanús CSAM jelentést tett az NCMEC-nek.
„Aggasztó eltérés van az Apple szolgáltatásain zajló brit gyermekpornográf bűncselekmények száma és a hatóságoknak tett globális visszaélési tartalmak jelentésének szinte elhanyagolható száma között” – mondta Richard Collard, az NSPCC gyermekbiztonsági online politikai vezetője. „Az Apple nyilvánvalóan lemarad sok társától a gyermekszexuális visszaélések elleni küzdelemben, amikor minden tech cégnek be kellene fektetnie a biztonságba és fel kellene készülnie az Egyesült Királyságban az Online Biztonsági Törvény bevezetésére.”
Az Apple nem kívánt kommentárt adni ehhez a cikkhez. A vállalat inkább a tavaly augusztusi nyilatkozataira irányította a Guardian figyelmét, amelyekben azt mondta, hogy úgy döntött, nem folytatja az iCloud fotók CSAM szkennelési programját, mert inkább egy olyan utat választott, amely „előnyben részesíti a [felhasználói] biztonságát és magánéletét”. 2022 végén az Apple felhagyott az iCloud fotószkennelő eszköz bevezetésével. Az Apple eszköze, a neuralMatch, a képeket szkennelte volna, mielőtt azokat feltöltötték az iCloud online fotótárhelyére, összehasonlítva őket az ismert gyermekpornográf képek adatbázisával matematikai ujjlenyomatok, úgynevezett hash értékek révén.
Azonban a szoftvert a digitális jogi csoportok visszaszorították, akik aggályokat fogalmaztak meg, hogy elkerülhetetlenül felhasználják majd az összes iCloud felhasználó magánéletének és biztonságának kompromittálására. A gyermekvédelmi szószólók elítélték a funkció visszavonását.
„Az Apple a legtöbb környezetében nem érzékeli a CSAM-ot nagy léptékben, egyáltalán” – mondta Sarah Gardner, a Los Angeles-i Heat Initiative gyermekvédelmi nonprofit szervezet vezérigazgatója. „Egyértelműen aluljelent és nem fektetett be megbízhatósági és biztonsági csapatokba, hogy kezelni tudja ezt.”
Az Apple júniusi bejelentése, hogy mesterséges intelligencia rendszert, az Apple Intelligence-t indítja el, riasztást váltott ki a gyermekvédelmi szakértők körében.
„Az Apple AI bevezetésének versenye aggasztó, amikor az AI által generált gyermekpornográf anyagok veszélyeztetik a gyermekeket és gátolják a rendőrség képességét a fiatal áldozatok védelmére, különösen, mivel az Apple visszalépett a technológia beágyazásától a gyermekek védelmére” – mondta Collard. Az Apple azt mondja, hogy az AI rendszer, amely az OpenAI-val együttműködésben készült, személyre szabja a felhasználói élményeket, automatizálja a feladatokat és növeli a felhasználók adatvédelmét.
2023-ban az NCMEC több mint 4700 AI által generált CSAM jelentést kapott, és úgy nyilatkozott, hogy a jövőben a jelentések számának növekedésére számít. Mivel az AI modelleket „valós” gyermekpornográf képekkel képezték, az AI által generált képek is érintettek a gyermekek áldozatául esésében. A Guardian júniusban arról számolt be, hogy gyermekragadozók az AI-t használják új képek létrehozására kedvenc áldozataikról, tovább súlyosbítva a túlélők vagy gyermekpornográf képek traumáját.
„A vállalat olyan területre lép előre, amelyről tudjuk, hogy hihetetlenül ártalmas és veszélyes lehet a gyermekek számára, anélkül, hogy képes lenne kezelni azt” – mondta Gardner. „Az Apple egy fekete lyuk.”
Érdekes tény: A mesterséges intelligencia alkalmazása a gyermekvédelmi szférában egyre elterjedtebb, és egyes becslések szerint a jövőben akár a CSAM esetek 90%-át is AI észlelheti.
Források: The Guardian, NSPCC, NCMEC