Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Szikora Tamás

Vajon megilleti-e a csetbotokat a szólásszabadság alapjoga?

A technológiai vívmányok komoly kihívások elé állítják a társadalomtudománnyal foglalkozó kutatókat.

Szikora Tamás 2025.07.21.
Petruska Ferenc

A multimodális rendszerek kockázatai háborúban

Kétélű fegyver, hiszen nemcsak biztonságot és védelmet nyújt, hanem veszélyeket hordoz.

Petruska Ferenc 2025.07.15.
Sorbán Kinga

Az életkor-ellenőrzés esete a szólásszabadsággal az Egyesült Államokban

A Paxton-ügy elmozdulást jelent a korábbi ítélkezési gyakorlathoz képest.

Sorbán Kinga 2025.07.14.
Kalas Vivien

Bizalmatlansági szavazás az Európai Bizottsággal szemben

Az ügynek gyakorlati következmények nélkül is lehet politikai hatása.

Kalas Vivien 2025.07.09.
Lábody Péter

MI-útmutató

Komoly kihívássá vált az etikus és átlátható működés.

Lábody Péter 2025.07.01.
ITKI BLOG
Picture of Sorbán Kinga
Sorbán Kinga
tudományos segédmunkatárs, NKE Információs Társadalom Kutatóintézet
  • 2024.03.05.
  • 2024.03.05.

Védelemből elégtelen

Egyre nagyobb mértéket ölt a gyermekek kizsákmányolása az online platformokon

Öt globális techcég vezérigazgatóját idézte be az Amerikai Egyesült Államok Szenátusának Igazságügyi Bizottsága egy kongresszusi meghallgatásra 2024 januárjában. Az X (korábban Twitter), a TikTok, a Snapchat, a Meta és a Discord csúcsvezetőinek arról kellett számot adniuk, hogy miért nem sikerül visszaszorítaniuk a gyermekek szexuális kizsákmányolását a platformjaikon.

Nincsenek könnyű helyzetben az online platformot üzemeltető szolgáltatók, hiába ugyanis a mesterséges intelligencia alapú moderálás, a gyermekek védelmét előíró jogszabályi rendelkezések és a társadalmi felelősségvállalás keretében tett kötelezettségvállalások (mint a TechCoalition, a WeProtect vagy a TakeItDown), mégsem sikerül visszaszorítani az olyan ártalmas magatartásokat, mint a gyermekek szexuális bántalmazása vagy a cyberbullying. 

Növekvő frusztráció

Úgy tűnik, hogy a létező jogszabályi rendelkezések nem tudnak hatékony keretet teremteni arra, hogy a gyakorlatban is megvalósuljon azoknak a gyermekeknek és kiskorúaknak a védelme, akik ezeket az online platformokat használják. A platformok beszámolóiból az derül ki, hogy a jogszabályi kötelezettségeiknek eleget tesznek. Mark Zuckerberg a Facebookot és az Instagramot is működtető Meta vezérigazgatója arról számolt be, hogy a cég több mint 30 olyan megoldást működtet, ami védi a fiatalokat és támogatja a szülőket a gyermekeik online felületében. A 18 éven aluli felhasználók profilja például alapértelmezetten privátra van állítva, és nem kaphatnak közvetlen üzenetet olyan személytől, aki nem az ismerősük, akit nem követnek vagy akivel nem léptek korábban kapcsolatba. A 19 év felettiek nem küldhetnek üzeneteket olyan kiskorúaknak, akik nem az ismerőseik.

Az összes platform kapcsolatban áll a rendvédelmi szervekkel, kérésükre adatszolgáltatást teljesít, a platformok pedig jelzik a moderátorok által gyermekek szexuális kizsákmányolását ábrázoló felvételként minősített tartalmakat az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központja (NCMEC) felé. Az X 2023-ban 12,4 millió felhasználói fiókot függesztett fel a gyermekek szexuális kizsákmányolására vonatkozó szabályok megsértése miatt, az NCMEC felé pedig 85 000 jelzés küldtek. Mindegyik cég alkalmaz mesterséges intelligencia alapú tartalomszűrést, ami gyakorlatilag a feltöltést követően azonnal, hash matching technológia alkalmazásával képes kiszűrni a gyermekpornográf tartalmakat.

Mi csúszott félre? 

A tartalmak száma messze meghaladja az emberi moderátorok kapacitását. Bár a kongresszusi meghallgatás során kiderült, hogy a Meta és a TikTok nagyjából negyvenezer fős moderátorcsapattal dolgoznak, más szolgáltatóknál ez nincs így. Miután Elon Musk felvásárolta, az X drasztikusan csökkentett a moderátorainak a számán, jelenleg nagyjából 2300 moderátort foglalkoztat a cég. Ennyi ember pedig nem tudja kezelni a tartalomdömpinget, ahogyan ezt nyilvánvalóvá tették a Taylor Swift énekesnőről terjedő deepfake pornográf felvétel eltávolítására tett teljesen hiábavaló kísérletek is. A kisebb platformoknál, mint a Snapchat vagy a Discord, ennél jóval kisebb, mindössze néhány száz fős moderátorcsapat működik.

A tartalmak száma pedig egyre növekszik, a mesterséges intelligenciának köszönhetően már néhány fénykép és videófelvételből elő lehet állítani olyan deepfake pornográf anyagot, ami gyermeket ábrázol. Bár ebben az esetben valós gyermek sérelmére nem követnek el szexuális bűncselekményt, a virtuális gyermekpornográfia ugyanolyan szigorú elbírálás alá esik, mint a „hagyományos”.

A gyermekpornográf tartalmak elsődleges forrása – köszönhetően az óriásplatformok eleve szigorú moderálási gyakorlatának – már nem a Facebook vagy az Instagram, hanem az olyan kisebb videómegosztók vagy tárhelyszolgáltatók, ahol jóval kisebb a tartalmak feletti kontroll. Ha egy óriásplatform el is távolítja az ilyen tartalmakra mutató hivatkozásokat, azzal is csak időlegesen kezeli a problémát, de nem szünteti meg azt. Mivel a tartalmakat nem a forrásnál távolítják el, azok könnyen és gyorsan újra- és továbboszthatók, botok segítségével gyorsabban, mint ahogy a moderátor csapatok dolgozni képesek.

Ezekre a kisebb platformokra jóval kisebb szabályozói figyelem fordul, az európai DSA lépcsőzetesen építkező szabályozási rendszerében kevésbé szigorú kötelezettségeknek kell megfelelniük, mint az óriásplatformoknak. Sőt, a kongresszusi meghallgatásra éppen az a fiatalok körében nagyon népszerű platformokat nem idézték be, mint a Roblox, ami egy jelentés szerint a gyermekek kizsákmányolásának melegágya vagy a népszerű videójáték-streaming platform, a Twitch, amit előszeretettel használnak szexuális bűncselekmények elkövetésére. Ugyan a DSA végrehajtásáról még nem állnak rendelkezésre gyakorlati tapasztalatok, hiszen az EU tagállamainak a digitális szolgáltatási koordinátorokat a 2024. év elején kellett kijelölniük, az várható, hogy – különösen a kisebb tagállamokban – a niche platformok gyakorlatának követésére kevesebb erőforrás jut.

A harmadik és talán a legnagyobb problémát az jelenti, hogy napjainkban még nem sikerült kielégítő megoldást találni az internetes életkoralapú azonosításra. Noha voltak már kezdeményezések – ezekről Bojnár Katinka blogbejegyzése részletesen szól –, technológiai vagy adatvédelmi problémák miatt ezidáig egyikből sem lett realitás. A gyakorlatban ez azt jelenti, hogy bárki regisztrálhat akár valótlan adatokkal, magát kiskorúnak kiadva a közösségi-média oldalakra, így kapcsolatba léphet gyermekekkel is. Nem segíti a helyzetet az sem, hogy a gyermekek médiatudatosságának szintje sok esetben alacsony. Nem egyszer ugyanis ők maguk keresik az interakciót az interneten idegenekkel, osztanak meg magukról nyilvánosan fénykép és videófelvételeket, vagy navigálnak olyan oldalakra, amik számukra nem valók. Sőt, szomorú statisztika, hogy cyberbullying esetében a zaklatók szintén jellemzően az áldozat korcsoportjából kerülnek ki.

Van fény az alagút végén? 

A felvázolt problémák szerteágazók és több oldalról sürgetnek beavatkozást. Pozitív lépésnek tekinthető az Európai Unió mesterséges intelligencia rendelete, amely az MI által előállított deepfake felvételek esetében a felismerést segítő átláthatósági követelményként bevezeti az ily módon előállított tartalmak megjelölésének (akár vízjellel, akár metataggel, akár más technikai megoldással) kötelezettségét. Szintén előremutató a DSA digitális szolgáltatási koordinátori rendszerének megteremtése, ennek segítségével határokon átnyúló módon, gyorsan jelezhetők a tartalmakkal kapcsolatos problémák.

Megoldásra váró feladat viszont az életkoralapú azonosítás és hitelesítés bevezetése, ahol – úgy tűnik – egyelőre nincsen jó megoldás. Az USA-ban a kongresszusi meghallgatásnak is alapot képező törvényjavaslat, a Kids Online Safety Act (KOSA) elfogadására irányuló eljárás zajlik, amely ugyan a konkrét életkoralapú azonosítást nem teszi kötelezővé, de olyan gondossági kötelezettséget (duty of care) teremt a szolgáltatók számára, amely a gyakorlatban ehhez és a kiskorúakra ártalmas tartalmak jóval szigorúbb moderálásához fog vezetni. A javaslat kritikusai attól tartanak, hogy az internetes szólásszabadságot drámai mértékben csökkenti a KOSA, hiszen ha elfogadják a platformszolgáltatók tartva attól, hogy a kiskorúakra káros tartalmak miatt bírósági eljárás indul ellenük, sokkal szigorúbban szűrik majd meg a szolgáltatásukba felkerülő tartalmakat. A megvalósítható technikai megoldások egyre közelebb vannak, most már csak az a kérdés, hogy milyen árat fizetünk a gyermekeink online biztonságáért.

Témakörök: gyerek, internet, jog, kiberbiztonság, platform, védelem
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT