A Facebook Ellenőrző Bizottsága (Oversight Board) 2024. február 5-én nyilvánosságra hozott döntésében az Egyesült Államok aktuális elnökével kapcsolatosan megjelent manipulált videót érintően vizsgálta felül a Facebook (Meta) álláspontját. A 2023 májusában közzétett néhány másodperc hosszúságú szerkesztett videó és a hozzá kapcsolódó felirat Joe Bident félreérthető kontextusban ábrázolta. Az Ellenőrző Bizottság döntésében a Facebook manipulált tartalmakkal kapcsolatos irányelveiről is „véleményt nyilvánított”. A blogbejegyzés a döntést és annak főbb megállapításait tekinti át.
2023 májusában egy Facebook-felhasználó hét másodperces videóklipet tett közzé a Facebookon Joe Bidenről. A videó „megtörtént eseményeken” alapult: az Egyesült Államok elnöke 2022 októberében az amerikai félidős választások alkalmával személyesen ment el szavazni, és miután leadta voksát, a szavazóhelyiségben „I Voted” matricát cserélt felnőtt unokájával oly módon, hogy a matricát a lány mellkasa fölé helyezte, majd arcon csókolta őt. A tényleges eseményeket követően alig több mint hat hónappal később közzétett manipulált felvétel úgy mutatta be a vázolt jelenetet, hogy amikor az elnök keze érintkezik az unokája mellkasával, úgy tűnik, mintha illetlenül megérintené őt. A módosított videó hangsávjában Pharoahe Monch „Simon Says” című dalából a „Girls rub on your tits” című dalszöveg szerepel, míg a poszt felirata szerint Biden elnök egy „beteg pedofil”. A Facebook a tartalom ellenőrzése alapján arra a megállapításra jutott, hogy a videó nem sértette meg a platform közösségi alapelveit. Ezt a döntést végül az Ellenőrző Bizottság is megerősítette.
A testület vizsgálata során a Facebook közösségi alapelveinek manipulált tartalmakra vonatkozó szabályait vette alapul, amelyek elég konkrét feltételek konjunktív fennállása esetén teszi lehetővé a tartalmak eltávolítását. A platform ugyanis azokat a módosított, szerkesztett i) videókat tekinti nemkívánatosnak, amelyeket ii) mesterséges intelligencia segítségével hoztak létre; és csak olyan tartalmakra vonatkozik, amelyekben iii) a szereplők olyan dolgokat mondanak, amelyeket valójában nem is mondtak, és a végrehajtott módosítás iv) nem nyilvánvaló az átlagember számára. (A szabály ugyanakkor nem alkalmazandó a paródiára és a szatirikus célzattal módosított tartalmakra.) Mind a Facebook, mind pedig az Ellenőrző Bizottság alapvetően az előzőekben vázolt kereteknek való megfelelésre tekintettel vizsgálta a kifogással érintett tartalmat.
A platform által magára nézve kötelező erejűnek elfogadott közösségi alapelvekben foglalt feltételek vizsgálata alapján az Ellenőrző Bizottságnak nem volt túlságosan bonyolult dolga az ügy megítélése kapcsán. Könnyen megállapítható volt ugyanis, hogy a posztban szereplő videót nem mesterséges intelligencia segítségével módosították, továbbá abban az látható, hogy Biden elnök olyasmit tesz, amit valójában nem tett, és nem pedig olyan szavak hangoztak el a szájából, amit ténylegesen nem is mondott. Ráadásul a videoklip módosítását is nyilvánvalónak ítélte meg, amire figyelemmel egyáltalán nem tartotta valószínűnek, hogy az „átlagfelhasználó” megtévesztésére alkalmas volna. Az eset megítélése kapcsán tehát megállapítást nyert, hogy nem sérültek a közösségi alapelvek, így a Facebook helytálló döntést hozott, amikor a tartalom platformról való eltávolítását kezdeményező kifogást elutasította.
Ezen a ponton akár véget is érhetne az „eljárás”, a kifogásolt tartalmat a vonatkozó szabályozás fényében értékelve, mondhatjuk, helytálló döntés született. Szerencsére az Ellenőrző Bizottság is felismerte, hogy a deepfake videók jóval nagyobb társadalmi és politikai kockázatot rejtenek magukban annál, minthogy szó nélkül elmenjenek a platform manipulált médiatartalmakra vonatkozó szabályozása mellett. Nem is annyira az ügyben született döntésre vagy annak indokolására, hanem inkább a testület esettel összefüggő, előremutató felismerésére érdemes néhány gondolatot szentelni, amely a túlzottan szűkre szabott – és ebből következően a valós, az innovatív megoldások által felszínre hozott problémákra meggyőző választ adni kevésbé alkalmas – (ön)szabályozás kritikájaként öltött testet. A manipulált tartalmakra vonatkozó irányelvek kapcsán – egyetértve az Ellenőrző Bizottság felismerésével – alapvetően kétféle kritikai észrevétel fogalmazható meg. Egyfelől, hogy azok csak igen szűkre szabott esetkörre alkalmazhatók, mindemellett pedig nem vesznek figyelembe egy igen fontos tényezőt a tartalmak értékelése kapcsán, nevezetesen azoknak a felhasználókra gyakorolt (tágabb kontextusban: társadalmi) kockázatait.
Az első felvetés kapcsán támogatható az a felismerés, hogy nehezen magyarázható, miért nem tartoznak a szabály hatálya alá az audiotartalmak, vagy azok, amelyekben nem a szereplők által mondottak (pontosabban inkább: valójában nem mondottak) révén próbálják manipulálni a közönséget, hanem a bemutatott cselekedeteken keresztül – mint ahogy ez az itt ismertetett ügyben is történt. Tovább haladva, az a körülmény is számos akadályát képezheti manipulált tartalom platformról való eltávolításának, hogy a közöségi alapelvek kizárólag a mestereséges intelligencia igénybevételét „tiltják”, ellenben lehetővé teszi bármilyen más jellegű, a tartalmak szerkesztésére alkalmas technikai megoldások alkalmazását.
Az Ellenőrző Bizottság által felvetett aggályok kapcsán is jól látható, hogy úgy tűnik, a közösségi oldal manipulált médiára vonatkozó előírásai valójában szinte kizárólag a deepfake videók eltávolítására alkalmazhatók. Ilyen módon valóban alkalmas lehet a szabály érvényre juttatása az olyan jellegű manipulációk kezelésére, mint például Nancy Pelosiról, a korábbi demokrata házelnökről nyilvánosságra került és nagy vihart kavart szerkesztett videó volt. Azon túlmenően, hogy az irányelv igen szűkre szabott alkalmazási kört tesz lehetővé, egyúttal túlságosan szélesre nyitott lehetőséget is biztosít a tartalmak eltávolítására, ugyanis még a közvetett károkozásra sem alkalmas tartalmak eltávolításának is teret enged, amennyiben az az említett konjunktív feltételeknek megfelel. A tartalommoderálási tevékenységnek ugyanakkor nem lenne szabad ilyen jellegű, mechanikus alkalmazást lehetővé tevő irányelvek szerint működnie.
A manipulált médiára vonatkozó közösségi irányelvre pillantva úgy tűnik, hogy a Facebook egy konkrét, felmerült problémára igyekezett választ adni a szabály 2020 elején történt életre hívásával. A technológiai fejlődés okozta folyamatos változásokkal ugyanakkor nehezen egyeztethető össze a tartalommoderálás elveinek ilyen keretek között történő alkalmazása. Az Ellenőrző Testület ugyan döntésében javaslatot tett a manipulált médiára vonatkozó közösségi alapelvek hatályának kiterjesztésére mind az érintett tartalmak köre, mind a szerkesztés / módosítás eszköze, mind pedig az ábrázolt jelenet tartalmát illetően egyaránt. Ezt a döntést alapvetően – különösképpen az érintett ügyben felmerült nehézségekre is figyelemmel – helyesnek tarthatjuk. Ugyanakkor a tartalommoderálás kapcsán hosszú távon a legfontosabb körülményként minden esetben azt kell(ene) szem előtt tartani, hogy a manipulált tartalom jelenthet-e valós veszélyt vagy kockázatot a társadalmi párbeszédre nézve. Különösképpen indokolt ezt a szempontot figyelembe venni a közéleti kérdésekkel és a demokratikus választási folyamatokkal kapcsolatban terjesztett tartalmak vonatkozásában. Másképpen fogalmazva: nem önmagában a manipuláció tényét kell a probléma forrásaként megnevezni, hanem az általa okozható (társadalmi) kockázatok esetleges fennálltát.
Mindazonáltal az is kérdéseket vethet fel, hogy vajon megfelelő megoldást eredményez-e, ha az Ellenőrző Bizottság az elé kerülő ügyek kapcsán gyakorta a közösségi alapelvek pontosítására, kiegészítésére tesz javaslatot. Ezáltal az eredendően alapelveket megfogalmazó keretrendszer, a konkrét ügyek tapasztalataiból táplálkozva, egy időről-időre terebélyesedő kazuisztikus normarendszerré válik (aminek áttanulmányozására vetemedő felhasználók száma ezzel párhuzamosan vélhetően egyre alacsonyabb lesz). Kétséges ugyanakkor, hogy a tartalommoderálást alapjaiban meghatározó szabályrendszer folyamatos alakítása vajon hozzájárul-e a felmerülő társadalmi kockázatok (legalábbis) mérséklésére. Mindettől eltekintve, a mesterséges intelligencia egyre szélesebb körű térnyerése és a folyamatos technológiai innováció eredményeképpen arra számíthatunk, hogy a jövőben a valódi kockázatot a károkozás szándékával előállított manipulált tartalmak mennyiségének növekedése, illetve elterjedésének sebessége fogja jelenteni.
Talán nem túl kockázatos azt állítani, hogy a 2024-es esztendőben világszerte sorra kerülő demokratikus választások kapcsán sokat fogunk hallani a mesterséges intelligencia és a manipuláció összefüggéseiről…