Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Magazin: Előadó
Picture of Ludovika.hu
Ludovika.hu
Az NKE tudományos platformja
  • Falyuna Nóra

    az NKE Tudomány és Társadalom Kutatóműhely vezetője

  • Sallai Zsófia

    irodavezető, NKE Kommunikációs és Program Igazgatóság

  • 2025.10.20.
  • 2025.10.20.
Magazin / Előadó

A megtévesztés kora

Mediatizáció és társadalom: igazság, bizalom, technológia (Mediatization and Society: Truth, Trust, Technology) címmel rendezett kétnapos nemzetközi konferenciát a Nemzeti Közszolgálati Egyetem Tudomány és Társadalom Kutatócsoportja, valamint a European Communication Research and Education Association (ECREA) Mediatizáció Szekciója október 9-én és 10-én, az NKE John Lukacs Társalgójában. A konferenciára 14 ország és régió kutatói jelentkeztek és érkeztek előadásaikkal.

Bartóki-Gönczy Balázs, a Nemzeti Közszolgálati Egyetem Államtudományi és Nemzetközi Tanulmányok Karának tudományos dékánhelyettese köszöntőjében a Tudomány és Társadalom Kutatóműhely tevékenységét méltatta, kiemelve, hogy ez a csoport negyedik rendezvénye, amely nemzetközi résztvevőkkel vizsgálja az MI kulturális és demokratikus hatásait. Hangsúlyozta, hogy a félretájékoztatás korszakában, ahol a bizalom és az igazság megkérdőjeleződik, a konferencia témája – a közbeszédet aláásó összeesküvés-elméletek és a társadalmi polarizáció – kiemelten fontos. A rendezvény alkalmat adott Fehér Katalin Generative AI, Media, and Society (Generatív MI, média és társadalom)című, a Taylor & Francis kiadó gondozásában megjelent könyvének magyarországi bemutatására, amely a generatív MI társadalmi hatásait elemzi.

Fehér Katalin, az ECREA Mediatizáció Szekció társelnöke és az NKE docense a szervezők munkáját méltatta. Köszönetet mondott az esemény operatív megszervezéséért, valamint a konferencia szakmai tartalmának és inkluzív jellegének kialakításáért. Fehér Katalin kiemelte a Kutatóműhely és a Q2-es besorolású KOME együttműködését, amelynek köszönhetően 2026-ban különszámot jelentetnek meg a szimpózium témáiról.

A megtévesztésről

Simone Natale, a Torinói Egyetem docense Mesterséges intelligencia és a megtévesztés automatizálása című nyitóelőadásban a generatív mesterséges intelligencia (MI) térnyerésének hatásait vizsgálta a kommunikációs folyamatok automatizálása kapcsán. Kiemelten vizsgálta a megtévesztés fogalmának átalakulását az MI és a digitális média korában, különös tekintettel a Replika nevű MI-alapú társalkalmazásra. A Replika, amely nagy nyelvi modelleken alapul, hasonlóan a ChatGPT-hez, nem pusztán technológiai eszköz, hanem olyan platform, amelynek célja a társas interakció, hogy társaságként szolgáljon a felhasználó számára, és gyakran kifejezetten erotikus beszélgetést is folytatnak vele. A felhasználók letöltik az alkalmazást, létrehoznak egy avatárt, meghatározzák annak nevét, nemét és jellemzőit, majd társalgásba kezdenek vele. A digitális média és MI elismert kutatója szerint ez az alkalmazás jól példázza azt az ellentmondásos dinamikát, amely az MI és a felhasználók közötti kapcsolatot jellemzi: bár a felhasználók tudják, hogy egy érzelem- és empátiamentes szoftverrel kommunikálnak, mégis mély, érzelmileg jelentős kapcsolatot alakítanak ki vele. Ez a jelenség nem egyszerű hiszékenység, hanem egy köztes állapot, ahol a tudatosság és az érzelmi bevonódás egyszerre van jelen, újragondolásra késztetve a csalás hagyományos fogalmát.

Simone Natale a megtévesztést kommunikációs és multimodális jelenségként definiálta, amely jelek és reprezentációk használatával hamis benyomást kelt, de többcsatornás és sokrétű, a technológia fejlődésével folyamatosan változik. Az MI kezdettől fogva fontos kérdéseket vet fel a megtévesztés, félrevezetés, csalás fogalmát illetően, amit jól mutat Alan Turing 1950-ben készült tesztje is. Turing nem azt kérdezte, hogy a gépek képesek-e gondolkodni, hanem egy játékot javasolt: egy kérdező anélkül beszélget valakivel vagy valamivel, hogy látná, és el kell döntenie, emberrel vagy géppel kommunikál-e. Ha a gép meggyőzi a kérdezőt, hogy ember, átmegy a teszten, ami lényegében a csalás sikerét jelenti. Simone Natale hangsúlyozta, hogy a Turing-teszt történetében a programozók gyakran manipulatív stratégiákat alkalmaztak, például sértő válaszokkal terelték el a figyelmet a gép korlátairól, hogy emberibbnek tűnjön.

Cselekvőképes algoritmusok

Az előadó három kulcsfontosságú szempontot emelt ki, amelyek miatt újra kell gondolni a megtévesztés jelenségeit az MI korában. Először is, a megtévesztés nem ellentéte a normális észlelésnek, hanem annak szerves része. Példaként említette, hogy egy erdőben sétálva egy furcsa alakú fát állatnak láthatunk, ami evolúciós mechanizmus a túlélés érdekében. A közösségimédia-platformok algoritmusai arra késztetik a felhasználókat, hogy alábecsüljék, miként használják fel adataikat. Az MI esetében a felhasználók tisztában vannak azzal, hogy például a ChatGPT szoftver, mégis szociális kereteket vetítenek rá, amit az olyan tervezési döntések erősítenek, mint az „én” névmás használata vagy az érzelmi tónus, amely bizalmat épít. Simone Natale megkülönböztette az erős megtévesztést, amikor egy gépet embernek hisznek, a banálistól, amelyben a felhasználók tudatosan szociális jelentéseket társítanak a géppel való interakcióhoz.

Másodszor, az MI automatizálja a megtévesztést az emberi tudás gyűjtése és beépítése révén. A modern média történetében, például a mozi esetében, az emberi érzékelés ismerete – mint az, hogy gyors képek a mozgás illúzióját keltik – tette lehetővé a technológia fejlesztését. Ma a deep learning hatalmas adatmennyiséget elemez, például emberi chatszövegeket, hogy imitálja a közösségi jelleget vagy kreativitást. A Replika például emberi beszélgetésekből tanulja a „múlt” mesélését, hogy hitelesebbnek tűnjön. Végül, Simone Natale az ágencia kérdését vizsgálta, amely túlmutat a szándékosságon. A megtévesztés nemcsak a hamis információ (szándékos) és a téves információ (nem szándékos) közötti különbségről szól, hanem egy háromszög eredménye, amelyben a csaló, az algoritmus és a becsapott egyaránt aktív szerepet játszik. Az algoritmusok szándék nélkül is ágenciával, cselekvőképességgel bírnak, például a nagy nyelvi modellek gyakran „hallucinálnak”, vagyis hamis információkat gyártanak, mert nyelvhez, nem pedig a valósághoz kötődnek.

Simone Natale azt a következtetést vonta le, hogy mivel a digitális platformok és az MI normalizálják a megtévesztést, a lényeg nem az, hogy megértsük, hogy jelen van-e csalás, hanem az, hogy mik az eredmények, és milyen lehet a különböző megtévesztő formák potenciális hatása. A kommunikáció automatizálása magában foglalja a megtévesztés automatizálását is. Szükség van arra, hogy túllépjünk a szándékosság szűk fókuszán.

A szándék fontos

Az előadást egy panelbeszélgetés követte, amelyet Tomasz Gackowski, az ECREA Mediatizáció társelnöke és a Varsói Egyetem professzora moderált, és amelyen Fehér Katalin Generative AI, Media, and Society című könyvének bemutatója is helyet kapott. A panel résztvevői Simone Natale, Bieke Zaman, a KU Leuven professzora, Demeter Márton, az NKE kutatóprofesszora és Fehér Katalin voltak. Tomasz Gackowski Simone Natale-hoz intézett kérdéssel indította beszélgetést: hogyan különbözik az MI által gyorsított megtévesztés a hagyományos álhírektől, és hogyan befolyásolja az információterjesztés léptékét? Simone Natale hangsúlyozta, hogy a modern digitális ökoszisztémákban a szándékosság helyett az ágenciára kell fókuszálni, mivel a szoftverek dinamikái gyakran nem köthetők egyértelmű szándékhoz. A komplex szoftverrendszerek sokszor olyan eredményeket generálnak, amelyek nem vezethetők vissza egyetlen döntésre vagy szándékra – ez alapjaiban kérdőjelezi meg a felelősség és az ellenőrizhetőség hagyományos értelmezését.  Sokkal inkább arra kell fókuszálni, hogy valami vagy valaki cselekvése eredményezi a megtévesztést, mint arra, hogy van-e mögötte szándék. Az MI átláthatósága – különösen a nagy nyelvi modellek esetében, amelyek működése még a fejlesztők számára is részben átláthatatlan – tovább bonyolítja a helyzetet. Simone Natale szerint a modelleket ezért természeti jelenségként, kívülről, megfigyelőként tanulmányozzák, ami új megközelítést igényel.

Fehér Katalin könyvére térve a szakemberek a generatív MI evolúciós ugrásként való értelmezését vitatták meg. Fehér Katalin szerint az MI által létrehozott szintetikus tartalmak – például szövegek, képek vagy videók – új minőséget hoznak, amely a humán és gépi, úgynevezett együttműködő intelligencia eredménye. Hivatkozott Ethan Mollick professzorra, a Pennsylvaniai Egyetem Wharton School of Business intézetének docensére, aki szerint a generatív MI együttműködő intelligenciaként funkcionál, ám a szintetikus tartalmak arányának növekedése (várhatóan 2030-ra meghaladja az autentikus tartalmakat) kihívásokat vet fel az eredetiség és az igazság ellenőrzésében. Fehér Katalin szerint a társadalomtudományoknak nagyobb szerepet kell vállalniuk az MI hatásainak vizsgálatában, mivel a kutatások 80-85 százaléka jelenleg a műszaki tudományok területéről származik.

Bieke Zaman a generatív MI társadalmi hatásairól beszélt, kiemelve, hogy az MI-t gyakran hatékonyságnövelő eszközként népszerűsítik, ám kritikátlan használata lustasághoz és a kognitív készségek gyengüléséhez vezethet. Példaként említette, hogy a diákok rövid távon motiváltabbak lehetnek az MI használatától, de hosszú távon a komplex problémák megoldásához szükséges készségek elsorvadhatnak. Zaman a szabályozás szükségességét hangsúlyozta, megjegyezve, hogy Európában erősebb a szabályozási szándék, de a technológiai iparban való lemaradás hatalmi feszültségeket szül. A „négyszeres hélix” modellt javasolta, amelyben tudósok, döntéshozók, iparági szereplők és civilek együtt alakítják a szabályozást.

A bizalom eróziója

Demeter Márton a tudományos kutatás és az MI kapcsolatára fókuszált, kiemelve, hogy az MI-t jelenleg eszközként kezelik, nem társszerzőként, bár sok kutató valójában ko-intelligenciaként használja. A tudomány világában szigorú szabályok uralkodnak, és a kutatónak kell vállalnia a felelősséget egyedüli szerzőként a publikációért, akkor is, ha használt MI-t a publikáció elkészítésekor. A tudományos írás szerkezete – különösen az angolszász akadémiai területeken –, már most is automatizált, ami megkérdőjelezi a kreativitás szerepét. Demeter szerint az MI nem végezhet empirikus kutatást, például interjúkat vagy felméréseket, így a humán ágencia továbbra is kulcsfontosságú. Az etikai kérdések és a felelősség azonban még megoldatlanok, különösen a hitelesség és az eredetiség terén.

A beszélgetésen felmerült a bizalom eróziójának problémája is, amely minden területet érint: politikát, médiát, tudományt és a mindennapi kommunikációt. A szakértők egyetértettek abban, hogy az MI által generált tartalmak elmossák a szakmai határokat, például az újságírók és influenszerek, vagy a szakértők és az automatizált összefoglalók között. A résztvevők hangsúlyozták a kritikus gondolkodás és az alapvető készségek fontosságát, valamint a társadalomtudományok szerepét az MI által támasztott kihívások megértésében és kezelésében.

A két nap során az érdeklődők megismerhették, egyebek mellett, az AI szerepét a hírgyártásban és az újságírásban, az automatizáció és az algoritmusok hatását az igazság koncepciójára, valamint az AI által formált válságkezelési eszközöket és gyakorlatokat. Szó esett a generatív AI demokrácia-konstrukciójáról, a digitális kori politikai kommunikációról, a háborús dezinformáció vizuális és szöveges formáiról, valamint a konfliktusmegelőzés kommunikációs stratégiáiról. A résztvevők hallhattak a generatív AI tudományos alkalmazásairól, valamint a tudománykommunikáció és közbizalom mediatizált társadalomban betöltött szerepéről, és a szakértelem kapcsán felmerülő kérdésekről. A konferencián az értékes előadásokon túl néhány poszterbemutatóra is sor került, amelyek kitértek a rövid hírvideók minőségi kérdéseire, valamint a nem nyugati identitások AI-ábrázolására és az algoritmikus igazság geopolitikai hatásaira.

A média automatizálása: munka, újságírás és a bizalom válsága

A konferencia első tematikus szekciója azon kérdés köré összpontosult, hogy miként alakítja át a mesterséges intelligencia és az automatizálás a médiamunka alapjait, az újságírói szerepeket és a bizalom dinamikáját. Ramin Astanli előadásában bemutatta, hogyan vesz részt az AI a szerkesztőségi folyamatokban – a tartalom kiválasztásától a közönségcélzásig. Bár ez a munka hatékonyságát növeli, új etikai dilemmákat is felvet: ki viseli a felelősséget egy algoritmus döntéseiért, és meddig tartható fenn az újságírói autonómia. Kriskó Edina előadása az AI alkalmazását mutatta be a válságkommunikációban, rámutatva, hogy a technológia előrejelezheti a kríziseket, de az emberi empátia pótolhatatlan marad. A szekció konklúziója szerint az automatizálás nem pusztán technológiai újítást jelent, hanem etikai fordulatot is: megkérdőjelezi a felelősség, a hitelesség és az emberi szerep hagyományos határait.

Közösségi média, dezinformáció és politikai kommunikáció kihívásai

A konferencia második szekciójában az online politikai kommunikáció, az érzelmi manipuláció és az algoritmikus tartalomterjesztés került középpontba. Christian Jaycee Samonte bemutatta, hogy a generatív AI-rendszerek miként építik be a nyugati politikai értékrendet az általuk létrehozott szövegekbe, ezáltal láthatatlanul formálva a „demokrácia” fogalmát. Farkas Xénia és Simon Lindgren a háborús dezinformáció vizuális eszköztárát vizsgálták az Instagramon, ahol az érzelmekre ható képek és a címkézés algoritmikus terjesztése politikai fegyverré válhat. A szekció fő üzeneteként megfogalmazható, hogy a közösségi média nemcsak ábrázolni, de alakítani is képes a politikai valóságot. Az érzelemalapú kommunikáció pedig felülírhatja a tényalapú tájékoztatást, ami új kihívásokat teremt a társadalmi bizalomra nézve.

Kapcsolódás és inklúzió: tudomány, társadalom és mediatizáció újragondolása

A tudomány, az oktatás, valamint a digitális és feltörekvő technológiák összefonódásait tárta fel a konferencia harmadik szekciója. Falyuna Nóra és Dodé Réka kutatásukban azt vizsgálták, hogy a nagy nyelvi modelleken alapuló generatív mesterséges intelligencia technológiája mennyiben tud hathatós segítséget nyújtani a tudományos publikációkhoz megadandó kulcsszavak generálásában, ezáltal a kutatók publikációs stratégiáját támogatva. Fernanda Chocron és Bieke Zaman brazíliai példákon keresztül mutatták be, hogy a hatékony digitális oktatás kulcsa a technológiai hozzáférés mellett a személyes kapcsolódás és gondoskodás biztosítása is. Monteiro-Krebs és Zaman előadásának fő állítása az volt, hogy az akadémiai közösségi hálózatok algoritmusai új tudományos hierarchiákat hoznak létre, miközben torzítják a láthatóságot. Tomasz Gackowski és Marlena Sztyber-Popko biometrikus vizsgálatai azt mutatták be, hogy az AI-eszközökkel dolgozó újságírók fokozott stressznek és figyelmi terhelésnek vannak kitéve. Priscilla Van Even az etikai dilemmákat elemezte, Fehér Katalin pedig három lehetséges jövőképet vázolt fel a generatív technológiák társadalmi integrációjára. Az előadások közös következtetése szerint a digitalizáció akkor szolgálja igazán a tudományt és a társadalmat, ha az ember marad a középpontban.

A bizalom építése: egészség- és tudománykommunikáció a digitális platformokon

A záró szekció az egészségügyi és tudománykommunikáció bizalmi kihívásaira összpontosított. Claire Roney, Egelhofer Jana Laura és Sophie Lecheler szerint a tudósok gyakran dilemmába kerülnek: ha őszintén beszélnek a bizonytalanságokról, hitelességük sérülhet; ha elhallgatják, az álhírek kaphatnak teret. Dorthea Roe az ADHD-influenszerek TikTok-retorikáját elemezte, akik saját tapasztalataik alapján építenek közösséget, és ezzel újfajta, tapasztalati alapú szakértőiséget teremtenek. Alavi Nia és Gilda Seddighi a határokon átívelő egészségügyi narratívákban megjelenő bizalmi feszültségeket mutatták be. Valamennyi előadás alapján megfogalmazható, hogy a digitális platformokon a tudományos hitelesség megőrzése etikus kommunikációt, transzparenciát és társadalmi érzékenységet igényel.

Témakörök: bizalom, konferencia, média, technológia
ÖT PERC EURÓPA BLOG

Lassan, de nem biztosan?

Az uniós intézmények helyzetértékelése.

Előadó

„A jövőnk gyökeresen más lesz, mint a múltunk”

Védelem és biztonság Dél-Amerikában és Dél-Európában. Konferencia.

ÖT PERC EURÓPA BLOG

Nem annyira bevándorlópárti és nem annyira zöld

Összességében egy sikeres pártszövetség meglepetéseket nélkülöző kongresszusát láthattuk Valenciában.

nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT