A mesterségesintelligencia-alapú technológiai megoldások terjedése a szólásszabadság körében is újfajta kérdéseket hozott a felszínre. Az egyik ilyennek tekinthető a deepfake tartalmak megítélése, amivel kapcsolatosan egy közelmúltbeli blogbejegyzésben már foglalkoztunk. A jelen blogbejegyzés a csetbotok szólásszabadságával kapcsolatos aktuális kérdéseket érinti, aminek apropóját nem titkoltan a közelmúltban napvilágra került, és komoly szakmai vitákat generáló jogesetek adták.
Az utóbbi egy-két esztendőben a csetbotok használata egyre jobban elterjedt, reprezentatív kutatások szerint a magyar lakosság körében is egyre nagyobb népszerűségnek örvendenek a generatív mesterséges intelligencia (MI) szolgáltatások. Belátható, hogy ameddig a csetbotok pontos, gyors és hatékony válaszokkal megkönnyítik, illetve kényelmesebbé teszik a mindennapi életünket, nem merül fel különösebb aggály a működésüket, használatukat illetően. De mi történik, amikor a csetbot „beszéde” jogsértő, illetve kárt okoz? Vajon megilleti-e a szólásszabadság joga? Pontosabban, kit illet meg vagy ki hivatkozhat a szólásszabadságra?
Egy blogbejegyzés nyilvánvalóan nem ad lehetőséget mélyreható alkotmányjogi és technológiai elemzésekre, ugyanakkor érdemes lehet egy-egy jogeset felvillantásán keresztül áttekinteni, hogy a közelmúltban milyen jellegű (jog)vitákat generáltak az MI-alapú csetbotok a szólásszabadság érvényesülésével összefüggésben, és ezekre milyen válaszok születtek. Első példaként a floridai kerületi bíróság előtt fekvő ügyet említhetjük, ahol a bírák azzal a kérdéssel szembesültek, hogy vajon az MI-alapú csetbotok ugyanazokat a szólásszabadsággal kapcsolatos jogokat élvezik-e, mint amelyek az Egyesült Államok Első Alkotmánykiegészítése alapján az embereket is megillet? A Garcia kontra Character Technologies ügy felperese egy édesanya, akinek 14 éves gyermeke öngyilkosságot követett el, miután hónapokon keresztül kommunikált egy csetbottal. Garcia úgy vélte, hogy fiát indokolatlanul negatívan befolyásolta a Character.AI, a Character Technologies Inc. nevű cég által létrehozott csetbot, ami állítólagosan romantikus és szexuális jellegű beszélgetéseket folytatott a fiúval, és öngyilkosságra bátorította őt.
Garcia 2024 októberében keresetet nyújtott be, amelyben azzal érvelt, hogy a csetbotok tervezése és működtetése során nem biztosítottak megfelelő védelmet a kiskorúak számára, azokat úgy tervezték, hogy addiktívak és veszélyesek legyenek, továbbá komoly érzelmi károkat képesek okozni a gyermekek számára, illetve jelen esetben közvetlenül hozzájárultak a felperes gyermekének halálához. A felperes álláspontja szerint az MI által generált beszéd nem élvezheti ugyanazt a védelmet, mint az emberi beszéd (miután nem gondolkodnak és értelmezik azt, amit „mondanak”, maga a beszéd sem érdemelhet alkotmányjogi védelmet), különösen akkor, ha az káros hatással van a kiskorúakra.
Ezzel szemben az alperes Character Technologies védekezése az Első Alkotmánykiegészítésben deklarált szólásszabadság jogára való hivatkozáson alapult, konkrétan a közönség azon jogán, miszerint a nyilvánosságot a beszéd forrásától függetlenül megilleti az információhoz való hozzáférés joga (tájékozódáshoz való jog). A cég védekezése az amerikai szólásszabadság doktrína azon alkotmányos elvére épít, amely értelmében nem a beszélő személye a meghatározó, hanem maga a „beszéd” áll a védelem fókuszában; ilyen módon pedig nem az a döntő szempont, hogy a közlő egy élő ember vagy pedig egy MI-alapon működő csetbot. A technológiai vállalat érvei mellett az akadémiai szférában is megjelentek támogató vélemények (vagy itt): nem a szólás esetlegesen sértő, károsító jellege a mérvadó, hanem az információhoz való hozzáférés, illetve a közönség tartalom befogadásához fűződő érdeke, amely miatt a csetbot beszéde mégis védelemben részesítendő.
Még frissebb az a 2025 májusában született ítélet, ami a ChatGPT általi rágalmazás kérdése tárgyában döntött. A tényállás szerint 2023 júniusában Mark Walters, egy Georgia állambeli rádiós műsorvezető rágalmazási pert indított az OpenAI ellen. A kereset szerint egy újságíró a Second Amendment Foundation (SAF) nevű fegyverjogi szervezet peres ügyeiről érdeklődött a ChatGPT-nél. A csetbot válaszában (hamisan) azt állította, hogy Walters a SAF ellen indított per vádlottja, akit sikkasztással és csalással vádolnak. A ChatGPT még egy teljesen kitalált keresetlevelet is generált, amelyben részletesen leírta az állítólagos vádakat, beleértve a hamisított pénzügyi dokumentumokat és a szervezet vezetése felé történő félrevezetést. Valójában Waltersnek semmilyen kapcsolata nem volt a SAF-fal, és soha nem vádolták meg ilyen bűncselekményekkel. Az újságíró nem publikálta az információt, de Walters szerint a ChatGPT által generált hamis állítások súlyosan károsították hírnevét. Az eljárás 2025 májusában zárult, a bíróság az OpenAI javára döntött, megállapítva, hogy Walters nem tudta bizonyítani, hogy a ChatGPT által generált válaszok tényleges rosszindulattal (actual malice) közölt valótlan, és így rágalmazó állítások lettek volna. A bíróság emellett azt is figyelembe vette, hogy az OpenAI világosan figyelmeztette a felhasználókat arra, hogy a ChatGPT által generált információk pontatlanok lehetnek, így felelőssége nem állapítható meg a közölt tartalmakért.
Szintén a rágalmazás kérdéséhez kapcsolódik az a per, amelyet Robby Starbuck, egy ismert konzervatív aktivista 2025 áprilisában indított a Meta ellen. A kereset szerint a Meta MI csetbotja hamisan állította, hogy Starbuck részt vett a 2021. január 6-i Capitolium ostromában, holokauszttagadó, valamint bűncselekményekért elítélt személy. Az eljárás jelenleg is folyamatban van. De, csak hogy ne kizárólag a tengerentúlról említsünk példát, egy török bíróság 2025 júliusában az Elon Muskhoz köthető „Grok” elnevezésű csetbot betiltásáról döntött, mivel az sértő válaszokat generált Erdogan elnökre, Kemal Atatürkre és a vallási értékekre vonatkozóan.
A fentiekben vázolt esetek minden bizonnyal nem az utolsók, amikkel találkozhatunk, és jelenleg végső kimenetelük sem jósolható meg teljes bizonyossággal. A csetbot felhasználói kér(d)ésekre adott válaszainak az alkotmányjogi értékelés szempontjából szólásként való minősítése láthatóan komoly tudományos vitákat generál. Ahhoz, hogy egy közlés a szólásszabadság hatálya alá tartozzon, nem elegendő a formai szempontoknak való megfelelése. A demokratikus nyilvánosságba becsatornázott véleményformálásnak ugyanis mind a „beszélő” szubjektív szándéka, mind pedig a befogadó közönség számára, objektív értékelés alapján is értelmezhető közlésként kell megjelennie.
A fenti ügyekben különféle érvekkel találkozhatunk: a Garcia kontra Character Technologies ügyben a felperes oldaláról felmerült, miszerint a csetbotnak nincsen szólásszabadsága, mert nem ember a beszélő. A technológiai vállalat szerint ezzel szemben viszont a csetbot „beszéde” a közönség információhoz való hozzáférésre irányuló jogának érvényesülése miatt érdemel alapjogi védelmet, az így megszerzett információ ugyanis a további beszédet segíti elő. Ebben az érvelésben a véleménynyilvánítás szabadsága és a tájékozódáshoz való jog (információszabadság) közötti határvonal elmosódását fedezhetjük fel. Walters ügyében pedig a szólásszabadság hagyományos mércéit alkalmazta a bíróság a ChatGPT által generált üzenet rágalmazó jellegének megítélése során, és a vállalat felelősségét kizáró (korlátozó) nyilatkozatot is a csetbot üzemeltetőjének javára ítélte.
A technológiai vívmányok láthatóan komoly kihívások elé állítják a szólásszabadság alkotmányos jogának dogmatikai kérdéseivel foglalkozó kutatókat (eközben az Európai Bizottság és több európai médiavállalat saját csetbotot fejlesztett – ChatEurope néven – az online terjedő álhírek visszaszorítása végett). A csetbotokkal kapcsolatos hasonló tematikájú kérdések – a fenti ügyekből is láthatóan – az elmúlt egy-két esztendőben kezdtek komoly visszhangot kapni, és egyelőre nem úgy tűnik, hogy az ügyek megítélése gyorsan egyirányú megoldásokat eredményezne. Várjuk a fejleményeket, a csetbotok ugyanis vélhetően egy ideig nem fognak eltűnni az életünkből.
Nyitókép forrása: freepik.com