Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Sorbán Kinga

Az életkor-ellenőrzés esete a szólásszabadsággal az Egyesült Államokban

A Paxton-ügy elmozdulást jelent a korábbi ítélkezési gyakorlathoz képest.

Sorbán Kinga 2025.07.14.
Pató Viktória Lilla

Hogyan teljesít Magyarország a digitális évtizedben?

Összehasonlító áttekintés a 2024-es és 2025-ös Digitális Évtized Helyzetéről Szóló Jelentések alapján.

Pató Viktória Lilla 2025.07.02.
Schvéd Brigitta

„Digitális eszmetörténet”

Mit kínálhat a Reception Reader az eszmetörténészek számára?

Schvéd Brigitta 2025.06.24.
Rab Árpád

A megfoghatatlan kézzelfoghatóvá tétele?

Egy etikus mesterségesintelligencia-mérőrendszer felé.

Rab Árpád 2025.05.27.
Ződi Zsolt

A zürichi kutatók esete az etikus Reddittel

Kutatási szabadság és etikus tudomány a mesterséges intelligencia korában.

Ződi Zsolt 2025.05.06.
ITKI BLOG
Vadász Pál
Vadász Pál
megbízott kutató, NKE Információs Társadalom Kutatóintézet
  • 2024.02.19.
  • 2024.02.19.

Szép új világ: deepfakes ante portas

Mi is a deepfake?

A deepfake (jövevényszóként honosodott, a mélyhamisítást senki sem használja) mesterséges intelligenciával manipulált szintetikus médium, amelynek lényege, hogy egy személy megjelenését helyettesítse egy másikéval. Etimológiailag a „deep learning” és a „fake” szóösszetételből származik. Formátumát tekintve lehet hang vagy videó. Tartalma szerint lehet művészeti alkotás, a szórakoztatóipar terméke, és igen, hamis hír (fake news), rosszindulatú, félrevezető tartalom. 

A technológia lényege, hogy a célszemélyről rendelkezésre álló tanítóadatok segítségével újraalakítja egy másik személyről készült felvételt. Ennek eredményeképpen a másik személy megnyilvánulása a célszemélyeként lesz látható és / vagy hallható. Ahogy a technológia fejlődik, egyre kevesebb minta, azaz tanítóadat szükséges a hitelesnek tűnő szintetikus megjelenéshez.

A deepfake néhány felhasználási területe

A legelső, „klasszikus” felhasználási terület a deepfake pornó, amely során egy pornósztárt „megfejelnek” egy ismert színésznő arcával, és az így módosított videót teszik közszemlére. A legújabb ilyen botrány Taylor Swift esete. Kolina Koltai, a Bellingcat munkatársa elemzi a helyzetet. Színésznő helyett a bosszúpornó deepfake változata is ismert.

A szórakoztatóiparból példa az ABBA és a KISS próbálkozása virtuális koncertek létrehozására. 

Viszonylag új és komoly személyiségi és szerzői jogi vitákat gerjesztő terület halott színészek „feltámasztása” modern filmekben. A technológia kiérett, a felhasználása erősen vitatott. 

Szörnyű határterület a mesterséges pedofil pornó.

Széles körben alkalmazott területe a deepfake-nek a politika. Politikusok szájába olyan szöveget adnak, amely általában teljesen ellenkezik az ismert hozzá köthető narratívával vagy mesterségesen létrehozott illegális tevékenykedésben mutatják be, és így politikust lehetetlen helyzetbe hozzák. Egyike a legfrissebb példáknak éppen Joe Biden esete. A videóban a fake elnök figura lebeszéli a demokrata választókat az előválasztáson történő szavazásról. A decemberi bangladesi választások kampánya során egyik politikus fake-je antipátiáját fejezte ki a Hamasszal szemben, ami a 170 milliós muszlim országban elfogadhatatlan. 2023 decemberében a pakisztáni választási kampány során Imran Khan politikus az ügyvédjével juttatott ki kortesanyagot szöveges formában, amelyet, valamint a korábbi hangfelvételeit mint tanítóadatot felhasználva kortesbeszéddé alakítottak MI segítségével. 

Deepfake alkalmazható az úgynevezett social engineering területén is. Ez a kiberbűnözésnek az a területe, amelynek során valaki megtévesztő beszéddel ráveszi az áldozatát egy számára káros cselekedet elvégzésére. Ilyen lehet például egy jelszó kiadása, egy nyugdíjas rábeszélése a banki információi kiadására stb. A műfaj különlegesen veszélyes változata, amikor egy rokon szintetikus hangján vészhelyzetet mutatva csalnak ki pénzt a pánikba esett családtagtól, baráttól.

Egy rossz hír: nem mindig bizonyítható a deepfake-ről, hogy deepfake?

A deepfake beazonosítása általában azon alapul, hogy a mesterséges intelligencia apró hibákat vét. A képen rosszul áll az óra mutatója, a szövegben nem tökéletes a kontextus. A vizsgálatot ember vagy gép egyaránt végezheti, az utóbbi egyre nagyobb hatékonysággal.

A deepfake-készítők és igazságügyi szakértők (forensic kutatók) örök macska-egér játéka a legújabb publikációk szerint a készítők győzelmére áll. A kutatások szerint a minőségi deepfake-ekről nem minden esetben lehet megállapítani a gépi eredetüket, így nem különböztethetők meg a humán eredetűektől, jóllehet az Inteltől a Microsoftig minden gyártó forgalmaz alkalmazásokat, amelyek a gépi eredetet igyekeznek beazonosítani.

Mesterséges intelligencia által generált szöveg eredetének vizsgálatáról egy 2023 decemberében megjelent publikáció 12 eszköz (tool) teljesítményét hasonlítja össze abból a szempontból, hogy képesek-e megkülönböztetni a gép által generált szöveget az emberitől. Egyik esetében sem találtak 80%-nál jobb eredményt. Sőt, kimutatták, hogy kevés erőfeszítéssel lehet annyira módosítani a szöveget, hogy az arány sokkal gyengébb legyen.

A legitim gép által generált képi és videó anyagok felismerhetősége sem magától értetődő. A legelterjedtebb megoldás a vízjelezés. Ennek során a program bitszintű változtatásokat hajt végre a pixelekben, ami ugyancsak gépi eszközökkel felismerhető, ugyanakkor az emberi szem számára észlelhetetlen. Ez hasonló a szteganográfia technikájához. Ugyanakkor harvardi tudósok bemutattak egy munkamodellt, amely még az erős vízjelezést is el tudja tüntetni. 

A deepfake elterjedésének lehetséges társadalmi következményei

A deepfake-ek megrendíthetik a bizalmat a minket körülvevő virtuális világban. Igaz ez választások befolyásolására, de legalább ennyire veszélyes az igazságszolgáltatás területére is. Ha nem lehet megállapítani egy hang, kép vagy videó alapú bizonyítékról, hogy valódi-e vagy hamis, akkor a bírói munkát alighanem teljesen újra kell gondolni.

2024 a választások éve lesz, és nem fogunk meglepődni, ha honi vagy éppen külföldi forrásokból számos deepfake videó fog megjelenni a szavazók befolyásolása céljából. Erre figyelmeztet az ENISA tanulmánya. 

Fentebb láttuk, hogy egy politikust mennyire kínos helyzetbe lehet hozni egy deepfake-kel. A felhasználás természetesen fordítva is lehetséges: egy politikus bármely terhelő anyagra kijelentheti, hogy deepfake függetlenül attól, hogy az-e vagy sem.

Bár nem a deepfake területéről jön a példa, de emlékezzünk a gázai Al-Ahli kórház környékén becsapódott rakéta esetére. A Hamasz kommunikációját az egész világ átvette, és mindenhol Izraelt tették felelőssé. Mire az izraeli hadsereg elvégezte a szakszerű elemzést, és bebizonyította, hogy a pusztítást egy hibás palesztin rakéta becsapódása okozta, a világ meggyőződését már lehetetlen volt megváltoztatni. A média már csak azért sem igyekezett helyesbíteni, hogy ne kelljen elismernie, milyen hamar felült a hazugságnak. 

Nehéz azt hinni, hogy politikusok cáfolata és magyarázkodása egy deepfake esetében másképpen végződne. Az persze, hogy mennyit ér egy utólagos tisztázás és magyarázat, erősen kérdéses.

A deepfake jogi szabályozása

Jelen írás nem tekinti feladatának a jogi szabályozás elemzését és ismertetését, mindössze utal ilyen törekvésekre. Az USA egyes államai büntetik a visszaélést. Az EU rendeletben készül szabályozni a deepfake-ek használatát. Az uniós rendeletben a deepfake-szabályozás kimerül majd átláthatósági követelményekben. Vízjellel vagy más műszaki megoldással kell jelezni, hogy a felvétel deepfake. Annyi érdekesség van a tervezett rendelet szövegében, hogy ezt a technikai megoldást az AI fejlesztőjének kell a rendszerbe beépítenie és alapértelmezettnek kell lennie. Tehát a deepfake-et előállító rendszer üzembentartója elvileg nem tudja majd kikapcsolni ezt a funkciót. Ez alól egy kivétel van, amikor a generált tartalom átesik majd szerkesztői tevékenységnek minősülő emberi munkán is. Egy mozifilm vagy videójáték esetében például nem kell címkézni.

Az EU mellett néhány tagállamnak viszont már vannak olyan törvényei, amik a deepfake-re is vonatkoznak. Ezek általában nem kimondottan a deepfake-et kezelő szabályok, hanem a hamis kép vagy videófelvétel előállításával és terjesztésével foglalkoznak. Ilyen egyébként Magyarországon is létezik, becsületcsorbításra alkalmas hamis hang- vagy képfelvételként fut az intézmény. (Bár amikor módosították a büntető törvénykönyvet, akkor valószínűleg épp nem a deepfake-re gondolt a magyar jogalkotó.) 

India kormánya iránymutatást adott ki a platformoknak. Az USA kormánya bátorítja a legnagyobb MI cégeket mint a Google vagy az OpenAI arra, hogy „önkéntesen” fektessenek be a vízjelezés technológiájába. A magyarországi jogi helyzetet Sorbán Kinga elemezte 2020-ban.

Témakörök: deepfake, fake, társadalom, technológia, videó
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT