Az ACLU harcol az alkotmányos jogodért, hogy deepfake-eket készíts


AI és a Szólásszabadság: Az ACLU Küzdelme

Felébredve a választási nap reggelén, telefonod képernyőjén egy remegő videó jelenik meg az állam fővárosáról. A képsorokban füst gomolyog a kormányzati épületből. Más felvételekben lövések hallatszanak a távolból. Talán jobb lenne ma elkerülni a szavazófülkét, gondolod. Később kiderül, hogy a videók mesterséges intelligencia (MI) által készített hamisítványok voltak.

Egy barátod felhív, kétségbeesve. Egy ismeretlen személy pornográf deepfake videókban ábrázolta őt, és ezek a videók most terjednek az interneten. A rendőrség azt tanácsolta neki, hogy forduljon ügyvédhez, de a jogi levelek nem érnek célt.

Egy híres színész vagy. Egy nagy technológiai cég azt szeretné, ha te lennél legújabb MI asszisztensének hangja. Visszautasítod. Pár hónappal később a chatbot megjelenik, és az emberek azt mondják, hogy a hangja pontosan olyan, mint a tiéd. Soha nem adtál hozzájárulást ehhez a hangutánzáshoz, és most valaki más hasznot húz a hangodból.

Ahogy a generatív MI által készített hamisítványok elárasztják az internetet, hamarosan mindenkinek, nem csak Scarlett Johanssonnak, lehet egy hasonló története. Az Egyesült Államokban a törvényhozók nemrégiben csaknem tucatnyi törvényt hoztak, és még több törvényt javasoltak a MI hamisítványok szabályozására. De ez a jogi kampány most váratlan ellenállásba ütközik. Emberi jogi csoportok, élükön az Amerikai Polgári Szabadságjogok Szövetségével (ACLU), jogi álláspontot építenek, amelynek célja ezen új szabályok szűkítése vagy elutasítása. A vita lényege: az amerikaiaknak alkotmányos joguk van deepfake videókat készíteni más állampolgárokról.

„Amikor látod, hogy ötven különböző állam törvényhozásában és számtalan közösségi rendeletben próbálják szabályozni egy új technológiát, biztos lehetsz benne, hogy sok esetben rossz helyen húzzák meg a határokat,” mondta Brian Hauss, az ACLU Beszéd, Magánélet és Technológiai Projektjének vezető ügyvédje. „Nincs kétségem afelől, hogy sok per lesz ezekkel a törvényekkel kapcsolatban, ahogy bevezetik őket.”

Ez a pereskedés kényelmetlen elszámolást jelenthet a MI szabályozására irányuló mozgalom számára, és egy kaotikus jövőhöz vezethet, ahol mindannyiunknak el kell fogadnunk bizonyos mértékű gépi utánzatot.

Először is, tegyük félre azt az elképzelést, hogy a MI-nek jogai vannak. Nincsenek. A MI „egy eszköz, mint egy kenyérpirító vagy bármilyen más élettelen tárgy,” mondta Hauss. „De amikor MI-t használok valaminek a közlésére a világban,” folytatta, „első alkotmányos jogaim vannak.”

Például egy színes tábla, amelyen az áll, hogy „Köszönöm Istennek a halott katonákért,” nem rendelkezik jogi kiváltságokkal. De amikor a Westboro Baptista Egyház tagjai ilyen táblát készítenek és lengetnek egy veterán temetésén, alkotmányos védelemben részesülnek, amely mindenki másra is vonatkozik. Akár mennyire kifogásolható maga a tábla, ezek a jogok elidegeníthetetlenek.

Amint egy jogilag létező beszéd megjelenik – legyen az egy tiltakozó tábla vagy egy gonosz deepfake, amit a szomszédodról készítettél – az első alkotmányos joggyakorlat szigorú korlátokat szab arra vonatkozóan, hogy mikor és miért léphet fel a kormányzat annak elrejtése érdekében. „Képzelj el egy világot, ahol a kormány nem korlátozza, ki beszélhet, hanem azt, ki hallgathatja,” mondja Cody Venzke, az ACLU Nemzeti Politikai Érdekvédelmi Osztályának munkatársa. „Ezeknek a jogoknak együtt kell létezniük.” Ezt az elképzelést néha „a hallgatás jogának” nevezik.

Ezek alapján sok olyan MI törvény és szabályozás, amely kétharmados támogatást kapott az országban, egyszerűen nem felel meg az alkotmányos követelményeknek. És sok ilyen törvény van.

Tavaly nyáron a Szövetségi Választási Bizottság (FEC) mérlegelni kezdte, hogy egy meglévő szabály a megtévesztő mesterséges intelligencia kampányhirdetésekre is vonatkozik-e. Az ACLU egy levélben figyelmeztette az FEC-t, hogy a szabályt szigorúan korlátozni kell azokra a deepfake-ekre, amelyek készítői bizonyíthatóan szándékosan akarták megtéveszteni a nyilvánosságot, nem pedig bármilyen deepfake-re, amely megtévesztheti a nézőket. (Az FEC még nem hozott döntést.)

2023 októberében Joe Biden elnök széleskörű végrehajtási rendeletet írt alá a MI-ről, amely tartalmazott egy irányelvet a Kereskedelmi Minisztérium számára a MI kimenetek vízjelezési szabványainak kidolgozására. „Mindenkinek joga van tudni, hogy az általa hallott hang vagy látott videó mesterséges intelligencia által generált vagy módosított,” mondta Biden. Az ACLU és más polgári jogi csoportok különösen óvatosak a címkézés ötletével kapcsolatban, mivel ez nem biztos, hogy hatékony – a rosszindulatú szereplők technikai megkerülő megoldásokat találhatnak – és arra kényszeríti az embereket, hogy olyan beszédet gyakoroljanak, amelyet egyébként nem mondanának el. Hasonlóságként a deepfake-ek címkézésének kötelezettsége olyan lenne, mintha minden komikusnak ki kellene kiáltania „Ez egy paródia!” mielőtt egy politikus utánzásába kezdene.

Állami szinten még több jogalkotási tevékenység történt. Idén januárban az állami törvényhozók 101 deepfake-ekkel kapcsolatos törvényjavaslatot nyújtottak be, a BSA, egy szoftverkereskedelmi csoport szerint. Az egyik ilyen törvényjavaslat, amelyet Georgiában nyújtottak be, bűncselekménnyé tenné deepfake készítését vagy megosztását azzal a szándékkal, hogy befolyásolják egy választást. Ez fájdalmas választás elé állította az állami ACLU fiókszervezet ügyvédeit és érdekvédőit.

„A Georgia-i ACLU történelmileg nagy támogatója volt a szavazói jogoknak,” mondta Sarah Hunt-Blackwell, az ACLU Első Alkotmányos Jogok politikai érdekvédője. Pár nappal a törvényjavaslat szavazás előtti bemutatása előtt a New Hampshire-i előválasztók olyan hívásokat kaptak, amelyekben Joe Biden deepfake hangja arra buzdította őket, hogy maradjanak otthon a választások napján. Ez „rendkívül aggasztó” volt, mondta Hunt-Blackwell.

Ennek ellenére a csapat végül úgy döntött, hogy a nemzeti ACLU irodával konzultálva, hogy a hamis politikai beszédek cenzúrázása és túlzott büntetése nagyobb fenyegetést jelentene. Miközben a szervezet támogatja a választások időpontjáról, helyéről és időpontjáról szóló félrevezető információk elleni szigorúbb szabályokat, amelyeket a szavazók elnyomásának egyik formájának tart, azt állítja, hogy az állampolgároknak alkotmányos joguk van MI segítségével hazugságokat terjeszteni, ugyanúgy, mint ahogy papíron vagy politikai gyűléseken szólva is hazudhatnak. „A politika mindig is többnyire hazugságokból állt,” mondta egy magas rangú ACLU munkatárs nekem.

Január 29-én, a Georgia-i Szenátus Igazságügyi Bizottsága előtt tartott beszédében Hunt-Blackwell arra kérte a törvényhozókat, hogy töröljék a törvényjavaslat büntetőjogi szankcióit, és adjanak kivételeket a hírközlő szervezetek számára, amelyek deepfake-eket kívánnak újraközölni a jelentéseik részeként. Georgia törvényhozási ülése véget ért, mielőtt a törvényjavaslat továbbhaladhatott volna.

A szövetségi deepfake törvényhozás is ellenállásba ütközik. Januárban a kongresszusi törvényhozók a No AI FRAUD Act nevű törvényjavaslatot nyújtották be, amely tulajdonjogokat biztosítana az emberek arcképe és hangja számára. Ez lehetővé tenné azok számára, akik bármilyen típusú deepfake-ben szerepelnek, valamint örököseik számára, hogy bepereljék a hamisítás létrehozásában vagy terjesztésében részt vevőket. Ezek a szabályok célja, hogy megvédjék az embereket a pornográf deepfake-ektől és az művészi utánzástól egyaránt. Néhány héttel később az ACLU, az Elektronikus Határvédelmi Alapítvány és a Technológiai Demokrácia Központja írásos ellenállást nyújtott be.

Számos más csoporttal együtt azt állították, hogy a törvények felhasználhatók lennének sokkal több mint csak illegális beszéd elnyomására. Az a lehetőség, hogy beperelhetik őket, megrémítheti az embereket attól, hogy alkotmányos védelmet élvező cselekedeteket hajtsanak végre, mint a szatíra, a paródia vagy a véleménynyilvánítás.

A WIRED-nek adott nyilatkozatában a törvényjavaslat szponzora, María Elvira Salazar képviselő megjegyezte, hogy „a No AI FRAUD Act kifejezetten elismeri az első alkotmányos jogok védelmét a közérdekű beszéd és kifejezés számára.” Yvette Clarke képviselő, aki egy párhuzamos törvényjavaslatot szponzorált, amely előírja, hogy a valódi embereket ábrázoló deepfake-eket címkézni kell, a WIRED-nek elmondta, hogy a törvényjavaslatot módosították, hogy kivételeket biztosítson a szatíra és a paródia számára.

A WIRED-nek adott interjúkban az ACLU politikai érdekvédői és ügyvédjei megjegyezték, hogy nem ellenzik a nem konszenzusos pornográf deepfake-ekre irányuló szigorú szabályozásokat. De meglévő zaklatás elleni törvényeket tartanak megfelelő(nek) keretnek a probléma kezelésére. „Természetesen lehetnek olyan problémák, amelyeket nem lehet a meglévő törvényekkel szabályozni,” mondta Jenna Leventoff, az ACLU vezető politikai tanácsadója. „De azt hiszem, az általános szabály az, hogy a meglévő törvények elegendőek a problémák nagy részének kezelésére.”

Ez azonban messze nem konszenzusos nézet a jogi tudósok körében. Mary Anne Franks, a George Washington Egyetem jogi professzora és a szigorú deepfake szabályok vezető támogatója a WIRED-nek írt emailben azt mondta: „A ‘Már vannak törvényeink ennek kezelésére’ érv nyilvánvaló hibája az, hogy ha ez igaz lenne, nem lennénk tanúi ennek a visszaélésnek az explóziójának anélkül, hogy ezzel párhuzamosan növekedne a büntetőeljárások száma.”

Általában a zaklatási ügyekben az ügyészeknek kétséget kizáróan be kell bizonyítaniuk, hogy az állítólagos elkövető szándékosan akart ártani egy konkrét áldozatnak – ami magas mérce, ha az elkövető esetleg nem is ismeri az áldozatot. Franks hozzátette: „Az egyik állandó téma az áldozatok tapasztalataiban az, hogy nincs nyilvánvaló jogi megoldásuk – és ők azok, akik ezt tudnák.”

Az ACLU még nem perelt be egyetlen kormányt sem a generatív MI szabályozása miatt. A szervezet képviselői nem árulták el, hogy készítenek-e elő egy ügyet, de mind a nemzeti iroda, mind több fiókszervezet azt mondta, hogy figyelemmel kísérik a jogalkotási folyamatot. Leventoff biztosított engem, hogy „gyorsan cselekszünk, amikor valami felmerül.”

Az ACLU és más csoportok nem tagadják a generatív MI visszaéléseinek szörnyűségeit, a politikai félretájékoztatástól a pornográf deepfake-ekig és a művészek munkájának eltulajdonításáig. Az ilyen ügyekben való beavatkozás célja nem az, hogy jóváhagyják a sértő tartalmat. Ahogy Hauss fogalmazott, „Sok olyan beszédet képviselünk, amellyel nem értünk egyet.” Inkább az a cél, hogy megakadályozzák azt, amit ezek a csoportok veszélyes alkotmányos csúszásnak tartanak. „Ha van egy jogi rendszer, amely szerint a kormány elnyomhatja a deepfake-eket,” mondta Hauss, „az egyik első kérdés mindenkinek az kellene, hogy legyen, hogy egy autoriter kormánytisztviselő hogyan használná ezeket a hatalmakat az igaz beszéd elnyomására?”

Tavaly az ACLU és számos más polgári jogi csoport aláírt egy levelet, amelyben ellenzik egy kétpárti szenátusi törvényjavaslatot, amely a közösségi média platformokat felelőssé tenné a generatív MI tartalmak, beleértve a deepfake-ek tárolásáért. A levél figyelmeztetett, hogy a vállalatokat tartalomért való felelősségük csökkentésével a törvény lehetőséget teremtene az államok számára, hogy pereljék a cégeket nem MI tartalom tárolásáért is. A levél szerzői egy törvényjavaslatra hivatkoztak, amelyet tavaly nyújtottak be a texasi törvényhozásban, amely bűncselekménnyé tenné az „abortuszt kiváltó gyógyszer megszerzésének módját” bemutató információk online tárolását. Ha mindkét törvényjavaslat, szövetségi és állami szinten, törvényerőre emelkedne, akkor a közösségi média platformokat perelhetnék abortusszal kapcsolatos tartalmak tárolásáért. Mindössze annyit kellene tennie egy felhasználónak, hogy valamit MI segítségével posztol – egy tweetet a ChatGPT segítségével írna, egy képet generálna