A mesterséges intelligencia (MI), valamint a mulitmodális eszközrendszerek páratlan fejlesztése sohasem látott mértékben modernizálta a hadviselést, viszont olyan jogi kockázatokat is felvetett, amelyeket a nemzetközi humanitárius jog nem ismer. A jelen blogbejegyzésemben nemcsak ezeket a veszélyeket és kockázatokat kívánom bemutatni, hanem az autonóm fegyverrendszerek multimodális részeinek, valamint deepfake technológiáknak a páratlan hatékonyságát is érzékeltetni kívánom. Blogbejegyzésemmel arra kívánok pontosan rámutatni, hogy a nemzetközi és belső jogi szabályozás jelenlegi fragmentáltsága, valamint az emberi kontroll csökkenése súlyos felelősségi és etikai dilemmákat vet fel, amelyek megoldása nélkülözhetetlen az emberiség biztonsága érdekében.
Az MI hatékonyságát a hadviselés leglátványosabban az autonóm fegyverrendszerekben ismerte fel, amit a multimodális rendszerek párhuzamos fejlődése is segít. Ez utóbbi többféle adattípust – képet, hangot, szöveget, sőt szenzor adatokat is – hatékonyan képes integrálni, és mesterséges intelligencia segítségével az információforrások kombinálásával komplexebb és helyes eredményeket képes nyújtani. A gépi tanulás és mélytanulás multimodális eszközökben képessé teszi őket, hogy tanuljanak, ezáltal egyre magasabb hatékonysággal működjenek. Közismert, nem hadviselési példa az okostelefonjaink arc- és ujjlenyomat felismerő képessége, amellyel gyorsan tudjuk mobiltelefonunkat felnyitni és zárolni. Ez a páratlan hatékonyság viszont a fegyveres összeütközésekben kétélű fegyver, hiszen nemcsak biztonságot és védelmet nyújt, hanem veszélyeket hordoz (Etzioni, 2018; Farkas, Kádár, 2023).
Egy drón multimodális eszközrendszereivel akár több száz méterről is észrevétlenül követhet bűnözőket és ellenséges katonákat, miközben szenzorokkal információkat gyűjthet róluk. Egy következő drón más típusú multimodális rendszerrel, így például arcfelismerővel képes magas rangú parancsnokokokat felismerni, illetve az ellenséges katonákat járulékos veszteség nélkül likvidálni. A fragmentált pozitív jogi szabályozás okán minden katonai bevetésnek meg kell felelnie a megkülönböztetés hadijogi elvének, azaz meg kel különböztetni a védett személyeket a harcosoktól, a védett objektumokat a katonai célpontoktól, támadás kizárólag az utóbbiak ellen történhet. (Schubert, 2022) Egy harmadik drón katasztrófavédelem során hőkamerával képes a túlélőket megkeresni a romok között. Egy negyedik hang- és képfelvételek segítségével elemzi a túszejtők és a túszok pontos helyzetét. Viszont ezek a drónok hasonló eredménnyel merényletek és célzott, bírósági eljárás nélküli gyilkosságok során is bevethetők (Black és Darken, 2024; Crootof, 2015; Docherty, 2012; Farkas, 2023).
Ezek a multimodális eszközök ugyanis számtalan, előre nem kalkulálható problémát vethetnek fel a fegyveres összeütközések során. Az autonóm fegyverrendszerek, a deepfake technológiák és a tömeges megfigyelés kiértékelése súlyos jogi aggályokat vetnek fel. (Piros, 2020) Ki viseli a büntetőjogi felelőséget, ha az autonóm fegyverrendszerek polgári személyeket ölnek meg? (Vincze, 2019) És kié az etikai felelősség, ha deepfake bizonyítékok alapján ítélnek el valakit? Mindennek a kulcsa az emberi kontroll fenntartása (human-in-the-loop), de az kérdésessé válik, hogy háborús körülmények során mindig megengedhető-e az ezzel járó időveszteség. Aszimmetrikus hadviselés során az erősebb féltől elvárható a pozitív válasz, de megengedhető kockázatnak minősül-e, ha az ellenség teljesen autonomizálta (human-out-of-the-loop) a támadási láncot (kill chain)? Másrészt képesek vagyunk hatékonyabbak lenni a mesterséges intelligenciánál, hogy nélkülözzük élet-halál helyzetekben? Sőt, felismerjük-e egyáltalán a jelenlétét egy deepfake képen, fegyveres támadásban vagy egy videón (Crootof, 2015; Docherty, 2012; Marsili, 2024)?
Joggal merül fel a kérdés: ha ilyen sok kockázatot jelent a multimodális rendszerek mesterséges intelligenciával kombinált alkalmazása, miért használjuk mégis? A válasz néhány rövid jelzővel leírható: gyors, pontos, hatékony és rentábilis. (Petruska, 2024; Kömlődi, 2024). A jelenlegi fejlettségi szinten is lehetővé teszi az olyan feladatok elvégzésére, amelyek az emberek számára túlságosan időigényesek, veszélyesek, költségesek vagy nehézkesek lennének, például adatok összefoglalása, a hamis hírek vagy a nyelvi zavarok felismerése, a kreatív tartalmak generálása. Hatalmas mennyiségű adatot gyorsan feldolgozni és értelmezni, tanulni a legkülönbözőbb típusú adatokból és automatikusan generálni azokat. A mesterséges intelligenciával való munkának a fenti előnyök ellenére persze léteznek komoly korlátjai is (Heyns, 2013; Siregar et al., 2024).
Összességében a mesterséges intelligencia hadviselésben való alkalmazása, különösen a multimodális rendszerek révén, rendkívüli mértékű hatékonyságnövekedést eredményez. Ezek a rendszerek képesek különböző adattípusokat – képet, hangot, szöveget, szenzoradatokat – integrálni, és komplex döntéseket hozni. A katonai drónok példája jól mutatja, hogy a technológia egyszerre szolgálhatja a védelmet, biztonságot és jelenthet életveszélyt, mert a hasonló eljárások és ugyanazok az eszközök bevethetők életmentésre, terrorelhárításra és akár célzott, ítélet nélküli likvidálásra is. A mesterséges intelligencia egyelőre még egy metajurisztikus jelenségnek tűnik, amellyel a jogi szabályozás nem tud lépést tartani, különösen az autonóm fegyverrendszerek és a deepfake technológiák terén, ami komoly felelősségi és etikai kérdéseket vet fel.
Felhasznált irodalom
Black, S. és Darken, C. (2024). Scaling Intelligent Agents in Combat Simulations for Wargaming. arXiv:2402.06694.
Crootof, R. (2015). The Killer Robots Are Here: Legal and Policy Implications. Cardozo Law Review, 36(5), 1837–1915.
Docherty, B. (2012). Losing Humanity. The Case against Killer Robots. Human Rights Watch, IHRC.
Etzioni, A. (2018). Pros and Cons of Autonomous Weapons Systems (with Oren Etzioni). In A. Etzioni, Happiness Is the Wrong Metric. A Liberal Communitarian Response to Populism (pp. 253–263). Library of Public Policy and Public Administration 11, Springer Cham.
Farkas, Á. (2023). A kibertér műveleti tevékenységek egyes szabályozási és államszervezési alapkérdései. In Á. Farkas & R. Kelemen (Eds.), A fejlődés fogságában: Tanulmányok a kibertér és a mesterséges intelligencia 21. századi állam- és jogfejlesztési, társadalmi, biztonsági kapcsolódásai köréből (pp. 77–95). Budapest: Gondolat Kiadó.
Heyns, C. (2013). Report of the Special Rapporteur on Extrajudicial, Summary or Arbitrary Executions. Genf, ENSZ.
Kádár, P. (2023). A kibertér és a kibertérműveleti képességek jelentősége a védelmi és biztonsági tevékenységek összehangolásának fejlesztésében. In Á. Farkas & R. Kelemen (Eds.), A fejlődés fogságában: Tanulmányok a kibertér és a mesterséges intelligencia 21. századi állam- és jogfejlesztési, társadalmi, biztonsági kapcsolódásai köréből. Budapest: Gondolat Kiadó.
Kömlődi, F. (2024). Nemzetközi irányelveket dolgoztak ki a katonai mesterséges intelligenciára. ICT Global (blog).
Marsili, M. (2024). Lethal Autonomous Weapon Systems: Ethical Dilemmas and Legal Compliance in the Era of Military Disruptive Technologies. International Journal of Robotics and Automation Technology, 11, 63–68.
Piros, A. (2020). A mesterséges intelligencia jelenkori és jövőbeni lehetőségei. In I. Kovács (Ed.), Szemelvények „A digitális világ hatása, a rendészeti szervek vezetés-irányítási folyamatára” című konferencián elhangzottakról (pp. 21–26). Budapest: Nemzeti Közszolgálati Egyetem Rendészettudományi Kar.
Schubert, B. (2022). Az autonóm fegyverrendszerekkel szemben támasztott követelmények a humanitárius nemzetközi jog tükrében. Honvédségi Szemle, 150(3), 20–30.
Vincze, V. (2019). Az autonóm fegyverrendszerek alkalmazása fegyveres konfliktusok idején. In Új típusú hadviselés a 21. század második évtizedében és azon túl – intézményi és jogi kihívások (pp. 213–235). Budapest: Zrínyi Kiadó.
Nyitókép forrása: rawpixel.com
A jelen blogbejegyzés a TKP2021-NVA-18, „A XXI. századi biztonsági kihívások nemzetbiztonsági hangsúlyai” projekt keretében valósult meg.