Mi is a deepfake?
A deepfake (jövevényszóként honosodott, a mélyhamisítást senki sem használja) mesterséges intelligenciával manipulált szintetikus médium, amelynek lényege, hogy egy személy megjelenését helyettesítse egy másikéval. Etimológiailag a „deep learning” és a „fake” szóösszetételből származik. Formátumát tekintve lehet hang vagy videó. Tartalma szerint lehet művészeti alkotás, a szórakoztatóipar terméke, és igen, hamis hír (fake news), rosszindulatú, félrevezető tartalom.
A technológia lényege, hogy a célszemélyről rendelkezésre álló tanítóadatok segítségével újraalakítja egy másik személyről készült felvételt. Ennek eredményeképpen a másik személy megnyilvánulása a célszemélyeként lesz látható és / vagy hallható. Ahogy a technológia fejlődik, egyre kevesebb minta, azaz tanítóadat szükséges a hitelesnek tűnő szintetikus megjelenéshez.
A deepfake néhány felhasználási területe
A legelső, „klasszikus” felhasználási terület a deepfake pornó, amely során egy pornósztárt „megfejelnek” egy ismert színésznő arcával, és az így módosított videót teszik közszemlére. A legújabb ilyen botrány Taylor Swift esete. Kolina Koltai, a Bellingcat munkatársa elemzi a helyzetet. Színésznő helyett a bosszúpornó deepfake változata is ismert.
A szórakoztatóiparból példa az ABBA és a KISS próbálkozása virtuális koncertek létrehozására.
Viszonylag új és komoly személyiségi és szerzői jogi vitákat gerjesztő terület halott színészek „feltámasztása” modern filmekben. A technológia kiérett, a felhasználása erősen vitatott.
Szörnyű határterület a mesterséges pedofil pornó.
Széles körben alkalmazott területe a deepfake-nek a politika. Politikusok szájába olyan szöveget adnak, amely általában teljesen ellenkezik az ismert hozzá köthető narratívával vagy mesterségesen létrehozott illegális tevékenykedésben mutatják be, és így politikust lehetetlen helyzetbe hozzák. Egyike a legfrissebb példáknak éppen Joe Biden esete. A videóban a fake elnök figura lebeszéli a demokrata választókat az előválasztáson történő szavazásról. A decemberi bangladesi választások kampánya során egyik politikus fake-je antipátiáját fejezte ki a Hamasszal szemben, ami a 170 milliós muszlim országban elfogadhatatlan. 2023 decemberében a pakisztáni választási kampány során Imran Khan politikus az ügyvédjével juttatott ki kortesanyagot szöveges formában, amelyet, valamint a korábbi hangfelvételeit mint tanítóadatot felhasználva kortesbeszéddé alakítottak MI segítségével.
Deepfake alkalmazható az úgynevezett social engineering területén is. Ez a kiberbűnözésnek az a területe, amelynek során valaki megtévesztő beszéddel ráveszi az áldozatát egy számára káros cselekedet elvégzésére. Ilyen lehet például egy jelszó kiadása, egy nyugdíjas rábeszélése a banki információi kiadására stb. A műfaj különlegesen veszélyes változata, amikor egy rokon szintetikus hangján vészhelyzetet mutatva csalnak ki pénzt a pánikba esett családtagtól, baráttól.
Egy rossz hír: nem mindig bizonyítható a deepfake-ről, hogy deepfake?
A deepfake beazonosítása általában azon alapul, hogy a mesterséges intelligencia apró hibákat vét. A képen rosszul áll az óra mutatója, a szövegben nem tökéletes a kontextus. A vizsgálatot ember vagy gép egyaránt végezheti, az utóbbi egyre nagyobb hatékonysággal.
A deepfake-készítők és igazságügyi szakértők (forensic kutatók) örök macska-egér játéka a legújabb publikációk szerint a készítők győzelmére áll. A kutatások szerint a minőségi deepfake-ekről nem minden esetben lehet megállapítani a gépi eredetüket, így nem különböztethetők meg a humán eredetűektől, jóllehet az Inteltől a Microsoftig minden gyártó forgalmaz alkalmazásokat, amelyek a gépi eredetet igyekeznek beazonosítani.
Mesterséges intelligencia által generált szöveg eredetének vizsgálatáról egy 2023 decemberében megjelent publikáció 12 eszköz (tool) teljesítményét hasonlítja össze abból a szempontból, hogy képesek-e megkülönböztetni a gép által generált szöveget az emberitől. Egyik esetében sem találtak 80%-nál jobb eredményt. Sőt, kimutatták, hogy kevés erőfeszítéssel lehet annyira módosítani a szöveget, hogy az arány sokkal gyengébb legyen.
A legitim gép által generált képi és videó anyagok felismerhetősége sem magától értetődő. A legelterjedtebb megoldás a vízjelezés. Ennek során a program bitszintű változtatásokat hajt végre a pixelekben, ami ugyancsak gépi eszközökkel felismerhető, ugyanakkor az emberi szem számára észlelhetetlen. Ez hasonló a szteganográfia technikájához. Ugyanakkor harvardi tudósok bemutattak egy munkamodellt, amely még az erős vízjelezést is el tudja tüntetni.
A deepfake elterjedésének lehetséges társadalmi következményei
A deepfake-ek megrendíthetik a bizalmat a minket körülvevő virtuális világban. Igaz ez választások befolyásolására, de legalább ennyire veszélyes az igazságszolgáltatás területére is. Ha nem lehet megállapítani egy hang, kép vagy videó alapú bizonyítékról, hogy valódi-e vagy hamis, akkor a bírói munkát alighanem teljesen újra kell gondolni.
2024 a választások éve lesz, és nem fogunk meglepődni, ha honi vagy éppen külföldi forrásokból számos deepfake videó fog megjelenni a szavazók befolyásolása céljából. Erre figyelmeztet az ENISA tanulmánya.
Fentebb láttuk, hogy egy politikust mennyire kínos helyzetbe lehet hozni egy deepfake-kel. A felhasználás természetesen fordítva is lehetséges: egy politikus bármely terhelő anyagra kijelentheti, hogy deepfake függetlenül attól, hogy az-e vagy sem.
Bár nem a deepfake területéről jön a példa, de emlékezzünk a gázai Al-Ahli kórház környékén becsapódott rakéta esetére. A Hamasz kommunikációját az egész világ átvette, és mindenhol Izraelt tették felelőssé. Mire az izraeli hadsereg elvégezte a szakszerű elemzést, és bebizonyította, hogy a pusztítást egy hibás palesztin rakéta becsapódása okozta, a világ meggyőződését már lehetetlen volt megváltoztatni. A média már csak azért sem igyekezett helyesbíteni, hogy ne kelljen elismernie, milyen hamar felült a hazugságnak.
Nehéz azt hinni, hogy politikusok cáfolata és magyarázkodása egy deepfake esetében másképpen végződne. Az persze, hogy mennyit ér egy utólagos tisztázás és magyarázat, erősen kérdéses.
A deepfake jogi szabályozása
Jelen írás nem tekinti feladatának a jogi szabályozás elemzését és ismertetését, mindössze utal ilyen törekvésekre. Az USA egyes államai büntetik a visszaélést. Az EU rendeletben készül szabályozni a deepfake-ek használatát. Az uniós rendeletben a deepfake-szabályozás kimerül majd átláthatósági követelményekben. Vízjellel vagy más műszaki megoldással kell jelezni, hogy a felvétel deepfake. Annyi érdekesség van a tervezett rendelet szövegében, hogy ezt a technikai megoldást az AI fejlesztőjének kell a rendszerbe beépítenie és alapértelmezettnek kell lennie. Tehát a deepfake-et előállító rendszer üzembentartója elvileg nem tudja majd kikapcsolni ezt a funkciót. Ez alól egy kivétel van, amikor a generált tartalom átesik majd szerkesztői tevékenységnek minősülő emberi munkán is. Egy mozifilm vagy videójáték esetében például nem kell címkézni.
Az EU mellett néhány tagállamnak viszont már vannak olyan törvényei, amik a deepfake-re is vonatkoznak. Ezek általában nem kimondottan a deepfake-et kezelő szabályok, hanem a hamis kép vagy videófelvétel előállításával és terjesztésével foglalkoznak. Ilyen egyébként Magyarországon is létezik, becsületcsorbításra alkalmas hamis hang- vagy képfelvételként fut az intézmény. (Bár amikor módosították a büntető törvénykönyvet, akkor valószínűleg épp nem a deepfake-re gondolt a magyar jogalkotó.)
India kormánya iránymutatást adott ki a platformoknak. Az USA kormánya bátorítja a legnagyobb MI cégeket mint a Google vagy az OpenAI arra, hogy „önkéntesen” fektessenek be a vízjelezés technológiájába. A magyarországi jogi helyzetet Sorbán Kinga elemezte 2020-ban.