Egyre nagyobb mértéket ölt a gyermekek kizsákmányolása az online platformokon
Öt globális techcég vezérigazgatóját idézte be az Amerikai Egyesült Államok Szenátusának Igazságügyi Bizottsága egy kongresszusi meghallgatásra 2024 januárjában. Az X (korábban Twitter), a TikTok, a Snapchat, a Meta és a Discord csúcsvezetőinek arról kellett számot adniuk, hogy miért nem sikerül visszaszorítaniuk a gyermekek szexuális kizsákmányolását a platformjaikon.
Nincsenek könnyű helyzetben az online platformot üzemeltető szolgáltatók, hiába ugyanis a mesterséges intelligencia alapú moderálás, a gyermekek védelmét előíró jogszabályi rendelkezések és a társadalmi felelősségvállalás keretében tett kötelezettségvállalások (mint a TechCoalition, a WeProtect vagy a TakeItDown), mégsem sikerül visszaszorítani az olyan ártalmas magatartásokat, mint a gyermekek szexuális bántalmazása vagy a cyberbullying.
Növekvő frusztráció
Úgy tűnik, hogy a létező jogszabályi rendelkezések nem tudnak hatékony keretet teremteni arra, hogy a gyakorlatban is megvalósuljon azoknak a gyermekeknek és kiskorúaknak a védelme, akik ezeket az online platformokat használják. A platformok beszámolóiból az derül ki, hogy a jogszabályi kötelezettségeiknek eleget tesznek. Mark Zuckerberg a Facebookot és az Instagramot is működtető Meta vezérigazgatója arról számolt be, hogy a cég több mint 30 olyan megoldást működtet, ami védi a fiatalokat és támogatja a szülőket a gyermekeik online felületében. A 18 éven aluli felhasználók profilja például alapértelmezetten privátra van állítva, és nem kaphatnak közvetlen üzenetet olyan személytől, aki nem az ismerősük, akit nem követnek vagy akivel nem léptek korábban kapcsolatba. A 19 év felettiek nem küldhetnek üzeneteket olyan kiskorúaknak, akik nem az ismerőseik.
Az összes platform kapcsolatban áll a rendvédelmi szervekkel, kérésükre adatszolgáltatást teljesít, a platformok pedig jelzik a moderátorok által gyermekek szexuális kizsákmányolását ábrázoló felvételként minősített tartalmakat az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központja (NCMEC) felé. Az X 2023-ban 12,4 millió felhasználói fiókot függesztett fel a gyermekek szexuális kizsákmányolására vonatkozó szabályok megsértése miatt, az NCMEC felé pedig 85 000 jelzés küldtek. Mindegyik cég alkalmaz mesterséges intelligencia alapú tartalomszűrést, ami gyakorlatilag a feltöltést követően azonnal, hash matching technológia alkalmazásával képes kiszűrni a gyermekpornográf tartalmakat.
Mi csúszott félre?
A tartalmak száma messze meghaladja az emberi moderátorok kapacitását. Bár a kongresszusi meghallgatás során kiderült, hogy a Meta és a TikTok nagyjából negyvenezer fős moderátorcsapattal dolgoznak, más szolgáltatóknál ez nincs így. Miután Elon Musk felvásárolta, az X drasztikusan csökkentett a moderátorainak a számán, jelenleg nagyjából 2300 moderátort foglalkoztat a cég. Ennyi ember pedig nem tudja kezelni a tartalomdömpinget, ahogyan ezt nyilvánvalóvá tették a Taylor Swift énekesnőről terjedő deepfake pornográf felvétel eltávolítására tett teljesen hiábavaló kísérletek is. A kisebb platformoknál, mint a Snapchat vagy a Discord, ennél jóval kisebb, mindössze néhány száz fős moderátorcsapat működik.
A tartalmak száma pedig egyre növekszik, a mesterséges intelligenciának köszönhetően már néhány fénykép és videófelvételből elő lehet állítani olyan deepfake pornográf anyagot, ami gyermeket ábrázol. Bár ebben az esetben valós gyermek sérelmére nem követnek el szexuális bűncselekményt, a virtuális gyermekpornográfia ugyanolyan szigorú elbírálás alá esik, mint a „hagyományos”.
A gyermekpornográf tartalmak elsődleges forrása – köszönhetően az óriásplatformok eleve szigorú moderálási gyakorlatának – már nem a Facebook vagy az Instagram, hanem az olyan kisebb videómegosztók vagy tárhelyszolgáltatók, ahol jóval kisebb a tartalmak feletti kontroll. Ha egy óriásplatform el is távolítja az ilyen tartalmakra mutató hivatkozásokat, azzal is csak időlegesen kezeli a problémát, de nem szünteti meg azt. Mivel a tartalmakat nem a forrásnál távolítják el, azok könnyen és gyorsan újra- és továbboszthatók, botok segítségével gyorsabban, mint ahogy a moderátor csapatok dolgozni képesek.
Ezekre a kisebb platformokra jóval kisebb szabályozói figyelem fordul, az európai DSA lépcsőzetesen építkező szabályozási rendszerében kevésbé szigorú kötelezettségeknek kell megfelelniük, mint az óriásplatformoknak. Sőt, a kongresszusi meghallgatásra éppen az a fiatalok körében nagyon népszerű platformokat nem idézték be, mint a Roblox, ami egy jelentés szerint a gyermekek kizsákmányolásának melegágya vagy a népszerű videójáték-streaming platform, a Twitch, amit előszeretettel használnak szexuális bűncselekmények elkövetésére. Ugyan a DSA végrehajtásáról még nem állnak rendelkezésre gyakorlati tapasztalatok, hiszen az EU tagállamainak a digitális szolgáltatási koordinátorokat a 2024. év elején kellett kijelölniük, az várható, hogy – különösen a kisebb tagállamokban – a niche platformok gyakorlatának követésére kevesebb erőforrás jut.
A harmadik és talán a legnagyobb problémát az jelenti, hogy napjainkban még nem sikerült kielégítő megoldást találni az internetes életkoralapú azonosításra. Noha voltak már kezdeményezések – ezekről Bojnár Katinka blogbejegyzése részletesen szól –, technológiai vagy adatvédelmi problémák miatt ezidáig egyikből sem lett realitás. A gyakorlatban ez azt jelenti, hogy bárki regisztrálhat akár valótlan adatokkal, magát kiskorúnak kiadva a közösségi-média oldalakra, így kapcsolatba léphet gyermekekkel is. Nem segíti a helyzetet az sem, hogy a gyermekek médiatudatosságának szintje sok esetben alacsony. Nem egyszer ugyanis ők maguk keresik az interakciót az interneten idegenekkel, osztanak meg magukról nyilvánosan fénykép és videófelvételeket, vagy navigálnak olyan oldalakra, amik számukra nem valók. Sőt, szomorú statisztika, hogy cyberbullying esetében a zaklatók szintén jellemzően az áldozat korcsoportjából kerülnek ki.
Van fény az alagút végén?
A felvázolt problémák szerteágazók és több oldalról sürgetnek beavatkozást. Pozitív lépésnek tekinthető az Európai Unió mesterséges intelligencia rendelete, amely az MI által előállított deepfake felvételek esetében a felismerést segítő átláthatósági követelményként bevezeti az ily módon előállított tartalmak megjelölésének (akár vízjellel, akár metataggel, akár más technikai megoldással) kötelezettségét. Szintén előremutató a DSA digitális szolgáltatási koordinátori rendszerének megteremtése, ennek segítségével határokon átnyúló módon, gyorsan jelezhetők a tartalmakkal kapcsolatos problémák.
Megoldásra váró feladat viszont az életkoralapú azonosítás és hitelesítés bevezetése, ahol – úgy tűnik – egyelőre nincsen jó megoldás. Az USA-ban a kongresszusi meghallgatásnak is alapot képező törvényjavaslat, a Kids Online Safety Act (KOSA) elfogadására irányuló eljárás zajlik, amely ugyan a konkrét életkoralapú azonosítást nem teszi kötelezővé, de olyan gondossági kötelezettséget (duty of care) teremt a szolgáltatók számára, amely a gyakorlatban ehhez és a kiskorúakra ártalmas tartalmak jóval szigorúbb moderálásához fog vezetni. A javaslat kritikusai attól tartanak, hogy az internetes szólásszabadságot drámai mértékben csökkenti a KOSA, hiszen ha elfogadják a platformszolgáltatók tartva attól, hogy a kiskorúakra káros tartalmak miatt bírósági eljárás indul ellenük, sokkal szigorúbban szűrik majd meg a szolgáltatásukba felkerülő tartalmakat. A megvalósítható technikai megoldások egyre közelebb vannak, most már csak az a kérdés, hogy milyen árat fizetünk a gyermekeink online biztonságáért.