Skip to content
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
Hárs András

Szabályozás hálójában: mesterséges intelligencia és emberi jogok

Ki hol tart a szabályozásban?

Hárs András 2022.11.30.
Kiss Adrienn

A kockázatelemzés rejtett számai

Mennyire kritikus egy adott infrastruktúra?

Kiss Adrienn 2022.11.15.
Szikora Tamás

A média szabályozását érintő uniós rendelettervezet a horizonton?

Legyen szabad, sokszínű és hiteles.

Szikora Tamás 2022.10.26.
Sorbán Kinga

Miért olyan nehéz szabályozni a netes pornót?

Eltávolítást követően is újra megjelennek a káros tartalmak.

Sorbán Kinga 2022.10.06.
Pató Viktória Lilla

Új javaslatok születtek a digitális piac felelősségi szabályainak korszerűsítésére

Körforgásos MI-felelősség.

Pató Viktória Lilla 2022.10.03.
ITKI BLOG
Sorbán Kinga
Sorbán Kinga
tudományos segédmunkatárs, NKE Információs Társadalom Kutatóintézet
  • 2021.07.05.
  • 2021.07.05.

Moderálás és mesterséges intelligencia

Avagy hogyan szűri a közösségi média a tartalmakat? (1. rész)

Régóta nem titok, hogy a legnagyobb közösségi média platformok nem csak emberi munkaerőt használnak annak érdekében, hogy szűrjék a szolgáltatásukban található tartalmakat. A mesterséges intelligenciával rendelkező algoritmusok népszerűségének oka elsősorban az, hogy a nap minden egyes percében olyan mennyiségű tartalom kerül fel a legnépszerűbb platformokra, amelynek az áttekintéséhez nem áll rendelkezésre humán erőforrás.

A nagy techcégek – különösen a Facebook – megváltó technológiát látnak a mesterséges intelligenciában, ugyanakkor a problémás esetekben szívesen hivatkoznak annak nem megfelelő működésére a felelősség elhárítása érdekében. A szakértők ugyanakkor arra figyelmeztetnek, hogy ezek az eszközök még nem elég fejlettek ahhoz, hogy „szabadon lehessen őket engedni” a virtuális térben. 

Friss blogbejegyzés sorozatunkban a népszerű közösségi média- és videómegosztó-platformok moderálási gyakorlatát fogjuk elemezni a véleménynyilvánításhoz való jog online érvényesülésének szemszögéből. Az első téma, amelyről szükséges részletesebben szólni az automatizált tartalomszűrés, hiszen a túlmoderálás a szólásszabadság online érvényesülésének egyik legnagyobb kockázata.

A Statista adatai alapján a legsűrűbben használt közösségi média platformok a következők: Facebook, YouTube, WhatsApp, Facebook Messenger, Instagram, WeChat, TikTok, QQ, Douyin, Sina Weibo, Telegram, Snapchat, Kuaishou, Pinterest, Reddit, Twitter és a Quora. Mivel jelen blogbejegyzés alapvetően a véleménynyilvánítás szabadságának érvényesülésére fókuszál, kizárólag azokkal az európai színtéren releváns platformokkal foglalkozunk, amelyek lehetőséget teremtenek arra, hogy a felhasználók szélesebb közönséget is elérjenek, a privát üzenetküldő szolgáltatásokkal nem foglalkozunk.

A vizsgált cégek átláthatósági jelentései egyértelműen azt mutatják, hogy 2020-ban a legnagyobb tartalommoderáló a Facebook volt. A cég ebben az évben több mint 12 milliárd tartalmat moderált (amelybe beletartoznak a posztok és a kommentek is). A többi vizsgált közösségi média platform moderálási gyakorlata ehhez képest visszafogott, az Instagram 106 millió, a fiatalok körében igen népszerű TikTok 193 millió, a YouTube 4,9 milliárd tartalom (ebből közel 35 millió videó és 4,7 milliárd komment) vonatkozásában élt moderálási tevékenységével.

Noha a számok alacsonyabbak, mint a Facebook esetében, milliós nagyságrendben már nem egyszerű feladat a tartalommoderálás. Ezt a YouTube példáján jól lehet érzékeltetni: ha minden eltávolított videóról feltételezzük, hogy 1 perc hosszúságú, akkor a cégnek a 2020-as évben 66 évnyi tartalmat kellett moderálnia (1 nap 1440 percből áll, tehát kb. 24 102 napot venne igénybe az összes moderált videó megtekintése). Ennél természetesen a napi moderálás során jóval több tartalmat kell megvizsgálni, hiszen sok olyan bejelentés is érkezik, ami alapján nem szükséges intézkedni.

A legtöbb moderálás alá eső tartalmat a platformok azért távolították el, mert spamnek illetve hamis fióknak minősült.  Ezeknek a profiloknak és üzeneteknek a károssága épp a tömegességben rejlik, így nem meglepő, hogy ezek nagy részt tesznek ki a moderált tartalmak között. Jelentős még a meztelen felnőttet és a szexuális cselekményeket bemutató moderált tartalmak száma. Ezek a tartalmak általában nem jogellenesek, viszont a Facebook, az Instagram, a YouTube és a TikTok a meztelenség minden formáját tiltják, azok a közösségi irányelveikbe ütköznek. Nagy mennyiségű tartalmat távolítanak el a vizsgált platformok a gyermekvédelmi szabályok, illetve a gyűlöletbeszéd tilalmára vonatkozó szabályok megsértése miatt is.

A platformok szerepe a moderálandó tartalmak azonosításában domináns, hiszen a moderált tartalmak többségét a szolgáltatók saját maguk észlelik és távolítják el (a Facebook és az Instagram esetében átlagosan 95% feletti az algoritmus által észlelt moderálandó tartalmak aránya). A felhasználók által észlelt tartalmak száma elenyésző, a Facebookon egyedül a zaklatás esetében magasabb, mint a platform saját észlelése. Ez vélhetően annak köszönhető, hogy a zaklató jelleg megítélése sok esetben az egyén szubjektív érzékelésén alapul. A 2020-as év folyamán azonban itt fejlődött a legtöbbet a szolgáltató, hiszen az év végére már jóval magasabb arányban tudta kiszűrni a zaklató tartalmakat.

Hasonló számokat láthatunk a YouTube esetében, ahol a 34 707 336 moderált tartalom nagy részét, 32 752 265 tartalmat az algoritmus szűrt ki.

A moderált tartalmak száma tehát minden platform esetében milliós nagyságrendű, a moderálást pedig a legtöbb esetben valamilyen algoritmus végzi. Joggal merül fel azonban a kérdés, hogy mennyire működnek megbízhatóan ezek a megoldások, főként, amikor olyan esetekről hallunk, hogy a Facebook algoritmusa tévedésből törölte a Függetlenségi Nyilatkozatot, vagy a YouTube az algoritmus pontatlanságai miatt elkezd több emberi moderátort alkalmazni.

A sorozat következő része azt a kérdést járja körbe, hogy hány esetben derülnek ki az algoritmusra alapozott döntéshozatal hibái, illetve milyen eséllyel kerülhet vissza egy már eltávolított tartalom a szolgáltatásba.

Témakörök: algoritmus, kiberbiztonság, közösségi média, mesterséges intelligencia, szabályozás
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT