A közösségi média a társadalmi nyilvánosság működését teljesen felforgató digitális vívmányként rendkívül összetett hatással van a demokratikus közvélemény formálódására. Bár sokan ezt már zárójelbe teszik, látni kell, hogy ezek közt a hatások között – mindenekelőtt a részvételi lehetőségek döbbenetes bővülésével – jócskán találunk a demokrácia számára pozitív fejleményeket is. Kétségtelen ugyanakkor, hogy mai működési mechanizmusaival a közösségi média számos ponton veszélyeket rejt a demokratikus értékek érvényesülésére – akár úgy, hogy tovább erősít korábban már meglévő negatív tendenciákat, akár úgy, hogy új kockázatokat hoz magával. Az algoritmizált ajánlórendszerek és a kommunikáció architektúrája súlyos következményekkel jár a nyilvánosság szerkezetére és demokratikus minőségére nézve. Az alábbiakban egyrészt kiemelünk néhányat a közösségi platformok által felvetett vagy súlyosbított problémák közül, másrészt összefoglalóan értékeljük, hogy az uniós szabályozás (DSA) alapján kötelező kockázatelemző jelentéseikben érdemben reagálnak-e rájuk a szolgáltatók.
Demokratikus kockázatok
Az egyik jelentős és újszerű probléma a társadalmi diskurzus szélsőséges széttöredezésének kockázata. Közvélemény csak akkor alakulhat ki, ha az emberek többsége közös információs tapasztalathoz fér hozzá. A Facebook ajánlórendszere ezzel szemben azzal az ambícióval kezdte meg működését, hogy a felhasználóknak „a legjobban személyre szabott élményt nyújtsa”. Amint az jól nyomon követhető a közösségi platformok által ma már jogi transzparencia-kötelezettségek miatt is közzétett információkból, a szolgáltatókat továbbra is a totális perszonalizáció célja vezérli ajánlórendszereik fejlesztésekor, és más releváns szempont nem is nagyon jelenik meg az algoritmusaikról szóló tájékoztatásban. Nem azt állítom természetesen, hogy eleve kockázatos a nyilvánosságban közzétett tartalmak személyre szabott kínálata, hanem azt, hogy beláthatatlan következményekkel járhat, ha teljes mértékben egyéni szempontok (érdeklődés, ízlés, kedvtelés) szerint alakítjuk, kihez mi jut el a közösségi diskurzusból. Európában, ahol az államnak is felelőssége van a közvélemény szerkezetének alakításában, régóta nem csak egyéni ízlés vagy szándék kérdése, kinek milyen tartalmat kínálnak fel a nyilvánosság meghatározó szereplői (korábban például az országos tévéhíradók).
A közösségi médiaplatformok ajánlórendszereinek működési sajátosságaiból adódó további kihívás a szélsőséges érzelmi polarizáció. A közösségi média kontextusában a polarizáció problémájának gyökere a fragmentációhoz hasonlóan a digitális nyilvánosság azon sajátossága, hogy mivel az interneten elérhető hatalmas mennyiségű információ miatt a figyelem ma már szűkös erőforrásnak számít, ezért a tartalmakat úgy kell kialakítani, hogy megragadják és fenntartsák a felhasználók figyelmét. Ezt gyakran úgy érik el, hogy a tartalmakat túlzó, érzelmekre ható módon mutatják be, amelyek az emberek identitására és konfliktusaira építenek. Egy, az „antidemokratikus attitűdök és pártos ellenszenv” („antidemocratic attitudes and partisan animosity”, AAPA) terjedését vizsgáló kutatás kimutatta, hogy a közösségi média ajánlórendszere által előrébb sorolt AAPA-tartalmaknak való kitettség jelentős mértékben képes befolyásolni az érzelmi alapú polarizációt.[1] A társadalmi kommunikáció korábbi csatornái tipikus esetben hagytak valamennyi időt az embereknek, hogy értékeljék a kapott információt és átgondolják reakcióikat. Ezzel szemben a közösségi média éhsége a felhasználók figyelméért az érzelmi reakciók felé tereli a kommunikációt. A közösségi médiának ez a polarizációt erősítő hatása más, akár meghatározóbb társadalmi kiváltó okok mellett is figyelmet érdemel. A polarizációval foglalkozó politikatudományi irodalom többségi álláspontja szerint bár elsősorban az elitek viselkedése, nem pedig a kommunikáció fűti a politikai polarizációt, a társadalmi véleménykülönbségeket kiélező, érzelmekre ható üzeneteknek szerepük van megerősödésében. Könnyű belátni, hogy amennyire lételeme a demokráciának a vélemények sokszínűsége, annyira mérgezi hosszú távú működési kilátásait a szélsőséges polarizáció.
Még az eddig tárgyalt problémáknál is nagyobb figyelmet kapott a közösségi média társadalmi hatásaival összefüggésben a dezinformáció terjedésének kérdésköre. Bár legkevésbé sem állítható, hogy a probléma újkeletű lenne a társadalmi kommunikációban, arra nézve konszenzus látszik, hogy a dezinformációból fakadó társadalmi költségek mértéke és terjedelme együtt nőtt azzal a forradalommal, amely lehetővé tette, hogy egy üzenetet azonnal és szinte ingyenesen el lehessen juttatni a tömegekhez. A dezinformáció azért vált az internet korszakának egyik alapvető problémájává, mert a költség nélküli tömeges információ aláásta azokat a tekintélyformákat, amelyekre a társadalom az igazság és a hamisság megkülönböztetésében hagyatkozik. Márpedig a demokrácia nem képes fennmaradni ismeretelméleti tekintélyek híján, mert azok elengedhetetlenül szükségesek egy közös politikai valóság megteremtéséhez. Az Európai Unió megközelítésében a közösségi média kulcsszerepet játszhat az online dezinformáció felerősítésében, mivel egyes technológiák, „például az automatizált szolgáltatások (ún. ‘botok’) mesterségesen felerősítik a dezinformáció terjedését” és ezt a mechanizmust „szimulált profilok (hamis fiókok) is elősegíthetik, amelyek mögött nincs valós felhasználó, és néha nagyszabású koordinációban (ún. ‘trollgyárak’) működnek”. Emellett persze a felhasználók is szerepet játszanak a jelenségben, mivel a dezinformáció „gyorsabb terjedését az is segíti a közösségi médiában, hogy a felhasználók hajlamosak a tartalmak ellenőrzés nélküli megosztására.”[2]
A közvélemény formálódásának digitális manipulálása már az imént tárgyalt dezinformációval összefüggésben is fontos tényezőként merül föl, de mindenképp olyan külön problémaként kell kiemelni, amely a dezinformáció problémájánál jóval szélesebb körben jelentkezik. A közvélemény alakulásának célzott manipulálása bármilyen időszakban komoly problémát jelent, de különösen érzékeny következményekkel járhat választási kampányidőszakban, amikor az önkormányzó közösség a hatalom gyakorlására vonatkozó legfontosabb döntéseket hozza meg. A visszaélésszerű digitális tevékenységek, beleértve a botok vagy hamis fiókok használatával végzett összehangolt műveleteket, a szavazók manipulációját könnyebbé teszik, mint valaha. A DSA a közösségi média működésének a választási folyamatokra gyakorolt negatív hatásait külön nevesíti a lehetséges rendszerszintű kockázatok között, az Európai Bizottság szerint pedig különösen ide tartozik a külföldi információs manipulációval és beavatkozással kapcsolatos fenyegetések, valamint az új technológiák, például a generatív mesterséges intelligencia által előállított tartalmak terjedése.
Kockázatcsökkentő törekvések?
Fontos szabályozási kérdésként merül fel, hogy a platformok által közzétett kockázatelemzésekben megjelennek-e az említett kihívások, azonosítják-e szolgáltatásaik releváns kockázatnövelő elemeit, illetve adnak-e adekvát választ a felmerülő problémákra. E helyütt természetesen csupán a jelentések kiértékelésének célirányos összegzésére nyílik most mód.
Először is, a platformok jelentései az általunk azonosított, a demokratikus közvélemény formálódására veszélyt jelentő kockázatok közül néhánnyal még csak nem is foglalkoznak. Az ajánlórendszerek közös működési modellje, a teljes mértékű perszonalizáció és annak lehetséges káros következményei többnyire nem vetődnek fel az elemzésekben. Ahol pedig említés szintjén megtaláljuk a kockázatok között a perszonalizációt mint a pluralizmus értékét veszélyeztető mechanizmust (ld. az X jelentését), ott a kockázatcsökkentő intézkedések nem veszik közvetlenül célba a problémát. A közösségi média így jelenleg a közös információs élményt arra bízza, hogy a felhasználók interakciói alapján a rendszer a mások által már figyelemre méltatott tartalmat nagyobb eséllyel ajánlja tovább. Ez azonban önmagában nagyon csekély és véletlenszerű ellenhatást jelent a nyilvánosság fragmentációjával szemben, és mivel az ajánlórendszerek a hasonló szokású és érdeklődésű felhasználókat tekintik mérvadónak, egészen biztosan nem mozdítja elő a pluralizmus értékét.
Másodszor, a kockázatcsökkentési intézkedések között sok olyat találunk, amelynek hatékonysága éppen a szélsőséges perszonalizáció miatt nagyon nehezen vagy egyáltalán nem ellenőrizhető. Tipikusan ilyenek az ajánlórendszer működésére vonatkozó lépések, amelyeknek több fontos kockázat (dezinformáció, polarizáció, fragmentáció) enyhítése szempontjából is jelentőségük van. Az „alacsony minőségű vagy félrevezető tartalmak láthatóságának csökkentése” (downranking), illetve „az autentikus forrásból származó tartalmak előbbre sorolása” (upranking) olyan ígéretek, amelyeknek megvalósulását a sokezernyi szempont alapján működő perszonalizáció világában aligha lehet egyértelmű mércéhez mérni. Konkrétumok hiányában nagyon nehéz megmérni egy-egy ilyen intézkedés társadalmi szintű következményeit. Míg korábban a nyomtatott újságokban a szerkesztési folyamat eredménye az újság oldalain rögzült és nyilvánosan látható volt, addig az algoritmizált és perszonalizált tartalomkínálat folyamatos mozgásban van és szinte láthatatlan.
Harmadszor, tovább növeli a homályt, hogy a kockázatértékelő jelentésekben adott információk néha nincsenek összhangban a transzparenciakövetelmények alapján a felhasználóknak nyújtott nyilvános tájékoztatásokkal. Bár a jelentések néhol arra utalnak, hogy a platformok lépéseket tesznek az interakciók súlyának csökkentésére az ajánlórendszer algoritmusában, a tájékoztatások következetesen a saját és a felhasználóhoz hasonló profilú felhasználók interakcióinak központi szerepét emelik ki a perszonalizáció élményében.
Negyedszer, a jelentések nem foglalkoznak kellő súllyal a közösségi média tevékenységében és hatásában komoly szereppel bíró egyes funkciók működésével. A lájkolással, megosztási lehetőségekkel és egyéb funkciókkal facilitált azonnali, érzelmi alapú interakciók alapvető nyomot hagynak a közösségi diskurzuson, és több kockázat gyökerét jelentik. A jelentésekből nem olvasható ki olyan intézkedési terv vagy akár csak gondolkodás, amely – legalább bizonyos esetekben – ezeknek a funkcióknak a használatát érintené. A tartalom terjedésének gyorsasága megjelenik a kockázatok között, jellemzően a dezinformációval összefüggésben, de a válaszok a kifogásolható tartalmak ajánlórendszeren belüli láthatóságának csökkentésére szorítkoznak. Nem kétséges, hogy ez is releváns része a problémának, de az architektúra hatása önálló értékelést igényelne.
Ötödször, a platformok ezzel szemben nagy szerepet szánnak és ténylegesen is óriási energiákat fektetnek olyan megoldások kidolgozásába, amelyek hatékonysága megkérdőjelezhető. A tényellenőrzők, megbízható bejelentők vagy a közösség más tagjai által kínált kontextus vagy helyreigazítás egyáltalán nem biztos, hogy eléri a kívánt hatást az egyébként dezinformációval célzott felhasználóknál. Azok, akik nem bíznak a ‘megbízható’ bejelentőkben vagy szakértőkben, még kevésbé fognak bízni bennük, ha az álláspontjukat központilag próbálják lenyomni a torkukon.
Hatodszor, a platformok nem minden esetben vállalják föl az adott kockázatot egyértelműen nagyobb eséllyel kezelő megoldást, ha az erős hatással járna sikerüket megalapozó működési mechanizmusaikra. A dezinformáció, a manipuláció és a választások integritásának problémáját közvetlenül érinti, hogy a platformokon – a minél több felhasználó és tartalom után ácsingózó laza feltételek között – könnyűszerrel lehet létrehozni álfiókokat és botfiókokat, amelyeket azután akár külön-külön, akár összehangolt akciók keretében lehet használni a nyilvánosság torzítására. A „nem hiteles használat” ellen a szolgáltatók utólag már igyekeznek fellépni, jelentéseik sokmillió fiók megszüntetéséről és bothálózatok lefüleléséről szólnak. Csakhogy ezek a számok még inkább kiélezik a kérdést: ha a probléma ennyire széleskörűen jelentkezik és ennyire elevenébe vág a platformok működésének, akkor hogyan lehet az, hogy jelentéseikben még csak meg sem jelenik a hiteles identifikáció kérdése?
A platformok proakivitásának hiányában felvethető konkrét megoldási javaslatok részletezése túlmutatna e blogbejegyzés keretein, ezért értékelésemet most csak annak rögzítésével zárom, hogy a tapasztalatok alapján (1) erős érvek szólnak a tartalomkínálat totális személyre szabásának áttörése mellett, (2) szükségesnek látszik az azonnali, minimális átgondolást is nélkülöző cselekvési lehetőségek (lájkolás, kommentelés, megosztás) finomhangolása, illetve (3) a közösségi médiában való nyilvános kommunikáció bizonyos körben valódi hitelesítéshez köthető. A DSA óvatos jogi keretei mellett tehát néhány ponton elkerülhetetlennek látszik a demokratikus értékek védelmét zászlajára tűző uniós jog keményebb fellépése. Ennek hiányában nem kérdéses, hogy a platformszabályozás magasztos céljai el fognak bukni a szolgáltatók üzleti modelljének áttörhetetlenségén.
Jegyzetek
[1] Tiziano Piccardi et al.: Social Media Algorithms Can Shape Affective Polarization via Exposure to Antidemocratic Attitudes and Partisan Animosity. arXiv:2411.14652
[2] Communication from the Commission to the European Parliament, the Council and the Committee of the Regions: „Tackling online disinformation: a European Approach”. Brussels, 26.4.2018 COM(2018) 236 final, 5-6.
A blogposzt a TKP2021-NKTA-51 számú projekt részeként készült, a Kulturális és Innovációs Minisztérium Nemzeti Kutatási Fejlesztési és Innovációs Alapból nyújtott támogatásával, a TKP2021-NKTA pályázati program finanszírozásában valósult meg.
Nyitókép forrása: contact@vladispas.ro / depositphotos.com




