Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Sorbán Kinga

Az életkor-ellenőrzés esete a szólásszabadsággal az Egyesült Államokban

A Paxton-ügy elmozdulást jelent a korábbi ítélkezési gyakorlathoz képest.

Sorbán Kinga 2025.07.14.
Zsivity Tímea

Srebrenica: a múlt árnyéka, a jelen felelőssége

„Jobb a közeli jó szomszéd, mint a távoli testvér”.

Zsivity Tímea 2025.07.14.
Kalas Vivien

Bizalmatlansági szavazás az Európai Bizottsággal szemben

Az ügynek gyakorlati következmények nélkül is lehet politikai hatása.

Kalas Vivien 2025.07.09.
Csepeli Réka

Egy fegyverekkel bebiztosított Európa jövőképe

Si vis pacem, para bellum.

Csepeli Réka 2025.07.07.
Lábody Péter

MI-útmutató

Komoly kihívássá vált az etikus és átlátható működés.

Lábody Péter 2025.07.01.
ITKI BLOG
Petruska Ferenc
Petruska Ferenc
alezredes, kutató, NKE EJKK Vallás és Társadalom Kutatóintézet
  • 2025.07.15.
  • 2025.07.15.

A multimodális rendszerek kockázatai háborúban

A mesterséges intelligencia (MI), valamint a mulitmodális eszközrendszerek páratlan fejlesztése sohasem látott mértékben modernizálta a hadviselést, viszont olyan jogi kockázatokat is felvetett, amelyeket a nemzetközi humanitárius jog nem ismer. A jelen blogbejegyzésemben nemcsak ezeket a veszélyeket és kockázatokat kívánom bemutatni, hanem az autonóm fegyverrendszerek multimodális részeinek, valamint deepfake technológiáknak a páratlan hatékonyságát is érzékeltetni kívánom. Blogbejegyzésemmel arra kívánok pontosan rámutatni, hogy a nemzetközi és belső jogi szabályozás jelenlegi fragmentáltsága, valamint az emberi kontroll csökkenése súlyos felelősségi és etikai dilemmákat vet fel, amelyek megoldása nélkülözhetetlen az emberiség biztonsága érdekében.

Az MI hatékonyságát a hadviselés leglátványosabban az autonóm fegyverrendszerekben ismerte fel, amit a multimodális rendszerek párhuzamos fejlődése is segít. Ez utóbbi többféle adattípust – képet, hangot, szöveget, sőt szenzor adatokat is – hatékonyan képes integrálni, és mesterséges intelligencia segítségével az információforrások kombinálásával komplexebb és helyes eredményeket képes nyújtani. A gépi tanulás és mélytanulás multimodális eszközökben képessé teszi őket, hogy tanuljanak, ezáltal egyre magasabb hatékonysággal működjenek. Közismert, nem hadviselési példa az okostelefonjaink arc- és ujjlenyomat felismerő képessége, amellyel gyorsan tudjuk mobiltelefonunkat felnyitni és zárolni. Ez a páratlan hatékonyság viszont a fegyveres összeütközésekben kétélű fegyver, hiszen nemcsak biztonságot és védelmet nyújt, hanem veszélyeket hordoz (Etzioni, 2018; Farkas, Kádár, 2023).

Egy drón multimodális eszközrendszereivel akár több száz méterről is észrevétlenül követhet bűnözőket és ellenséges katonákat, miközben szenzorokkal információkat gyűjthet róluk. Egy következő drón más típusú multimodális rendszerrel, így például arcfelismerővel képes magas rangú parancsnokokokat felismerni, illetve az ellenséges katonákat járulékos veszteség nélkül likvidálni. A fragmentált pozitív jogi szabályozás okán minden katonai bevetésnek meg kell felelnie a megkülönböztetés hadijogi elvének, azaz meg kel különböztetni a védett személyeket a harcosoktól, a védett objektumokat a katonai célpontoktól, támadás kizárólag az utóbbiak ellen történhet. (Schubert, 2022) Egy harmadik drón katasztrófavédelem során hőkamerával képes a túlélőket megkeresni a romok között. Egy negyedik hang- és képfelvételek segítségével elemzi a túszejtők és a túszok pontos helyzetét. Viszont ezek a drónok hasonló eredménnyel merényletek és célzott, bírósági eljárás nélküli gyilkosságok során is bevethetők (Black és Darken, 2024; Crootof, 2015; Docherty, 2012; Farkas, 2023).

Ezek a multimodális eszközök ugyanis számtalan, előre nem kalkulálható problémát vethetnek fel a fegyveres összeütközések során. Az autonóm fegyverrendszerek, a deepfake technológiák és a tömeges megfigyelés kiértékelése súlyos jogi aggályokat vetnek fel. (Piros, 2020) Ki viseli a büntetőjogi felelőséget, ha az autonóm fegyverrendszerek polgári személyeket ölnek meg? (Vincze, 2019) És kié az etikai felelősség, ha deepfake bizonyítékok alapján ítélnek el valakit? Mindennek a kulcsa az emberi kontroll fenntartása (human-in-the-loop), de az kérdésessé válik, hogy háborús körülmények során mindig megengedhető-e az ezzel járó időveszteség. Aszimmetrikus hadviselés során az erősebb féltől elvárható a pozitív válasz, de megengedhető kockázatnak minősül-e, ha az ellenség teljesen autonomizálta (human-out-of-the-loop) a támadási láncot (kill chain)? Másrészt képesek vagyunk hatékonyabbak lenni a mesterséges intelligenciánál, hogy nélkülözzük élet-halál helyzetekben? Sőt, felismerjük-e egyáltalán a jelenlétét egy deepfake képen, fegyveres támadásban vagy egy videón (Crootof, 2015; Docherty, 2012; Marsili, 2024)?

Joggal merül fel a kérdés: ha ilyen sok kockázatot jelent a multimodális rendszerek mesterséges intelligenciával kombinált alkalmazása, miért használjuk mégis? A válasz néhány rövid jelzővel leírható: gyors, pontos, hatékony és rentábilis. (Petruska, 2024; Kömlődi, 2024). A jelenlegi fejlettségi szinten is lehetővé teszi az olyan feladatok elvégzésére, amelyek az emberek számára túlságosan időigényesek, veszélyesek, költségesek vagy nehézkesek lennének, például adatok összefoglalása, a hamis hírek vagy a nyelvi zavarok felismerése, a kreatív tartalmak generálása. Hatalmas mennyiségű adatot gyorsan feldolgozni és értelmezni, tanulni a legkülönbözőbb típusú adatokból és automatikusan generálni azokat. A mesterséges intelligenciával való munkának a fenti előnyök ellenére persze léteznek komoly korlátjai is (Heyns, 2013; Siregar et al., 2024).

Összességében a mesterséges intelligencia hadviselésben való alkalmazása, különösen a multimodális rendszerek révén, rendkívüli mértékű hatékonyságnövekedést eredményez. Ezek a rendszerek képesek különböző adattípusokat – képet, hangot, szöveget, szenzoradatokat – integrálni, és komplex döntéseket hozni. A katonai drónok példája jól mutatja, hogy a technológia egyszerre szolgálhatja a védelmet, biztonságot és jelenthet életveszélyt, mert a hasonló eljárások és ugyanazok az eszközök bevethetők életmentésre, terrorelhárításra és akár célzott, ítélet nélküli likvidálásra is. A mesterséges intelligencia egyelőre még egy metajurisztikus jelenségnek tűnik, amellyel a jogi szabályozás nem tud lépést tartani, különösen az autonóm fegyverrendszerek és a deepfake technológiák terén, ami komoly felelősségi és etikai kérdéseket vet fel.

Felhasznált irodalom

Black, S. és Darken, C. (2024). Scaling Intelligent Agents in Combat Simulations for Wargaming. arXiv:2402.06694.

Crootof, R. (2015). The Killer Robots Are Here: Legal and Policy Implications. Cardozo Law Review, 36(5), 1837–1915.

Docherty, B. (2012). Losing Humanity. The Case against Killer Robots. Human Rights Watch, IHRC.

Etzioni, A. (2018). Pros and Cons of Autonomous Weapons Systems (with Oren Etzioni). In A. Etzioni, Happiness Is the Wrong Metric. A Liberal Communitarian Response to Populism (pp. 253–263). Library of Public Policy and Public Administration 11, Springer Cham. 

Farkas, Á. (2023). A kibertér műveleti tevékenységek egyes szabályozási és államszervezési alapkérdései. In Á. Farkas & R. Kelemen (Eds.), A fejlődés fogságában: Tanulmányok a kibertér és a mesterséges intelligencia 21. századi állam- és jogfejlesztési, társadalmi, biztonsági kapcsolódásai köréből (pp. 77–95). Budapest: Gondolat Kiadó.

Heyns, C. (2013). Report of the Special Rapporteur on Extrajudicial, Summary or Arbitrary Executions. Genf, ENSZ.

Kádár, P. (2023). A kibertér és a kibertérműveleti képességek jelentősége a védelmi és biztonsági tevékenységek összehangolásának fejlesztésében. In Á. Farkas & R. Kelemen (Eds.), A fejlődés fogságában: Tanulmányok a kibertér és a mesterséges intelligencia 21. századi állam- és jogfejlesztési, társadalmi, biztonsági kapcsolódásai köréből. Budapest: Gondolat Kiadó. 

Kömlődi, F. (2024). Nemzetközi irányelveket dolgoztak ki a katonai mesterséges intelligenciára. ICT Global (blog).

Marsili, M. (2024). Lethal Autonomous Weapon Systems: Ethical Dilemmas and Legal Compliance in the Era of Military Disruptive Technologies. International Journal of Robotics and Automation Technology, 11, 63–68.

Piros, A. (2020). A mesterséges intelligencia jelenkori és jövőbeni lehetőségei. In I. Kovács (Ed.), Szemelvények „A digitális világ hatása, a rendészeti szervek vezetés-irányítási folyamatára” című konferencián elhangzottakról (pp. 21–26). Budapest: Nemzeti Közszolgálati Egyetem Rendészettudományi Kar.

Schubert, B. (2022). Az autonóm fegyverrendszerekkel szemben támasztott követelmények a humanitárius nemzetközi jog tükrében. Honvédségi Szemle, 150(3), 20–30.

Vincze, V. (2019). Az autonóm fegyverrendszerek alkalmazása fegyveres konfliktusok idején. In Új típusú hadviselés a 21. század második évtizedében és azon túl – intézményi és jogi kihívások (pp. 213–235). Budapest: Zrínyi Kiadó.

Nyitókép forrása: rawpixel.com

A jelen blogbejegyzés a TKP2021-NVA-18, „A XXI. századi biztonsági kihívások nemzetbiztonsági hangsúlyai” projekt keretében valósult meg.

Témakörök: háború, jog, mesterséges intelligencia
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT