Egy megírt kódtól a szabályok betartásáig: Az EU mesterséges intelligencia szabályozási keretrendszerének áttekintése.
A cikk első részét ITT olvashatják.
A mesterséges intelligencia (AI) korunk szerves részévé vált, és számos ágazatban jelentős változásokat eredményezett. Szabályozatlan használata azonban súlyos veszélyforrást hordoz magában, többek között az esetleges részrehajlást, a személyes adatok védelmének csorbítását és a dezinformációt. E kihívások kezelése érdekében az Európai Unió elfogadta a mesterséges intelligenciáról szóló rendeletet, amelynek célja, hogy biztosítsa az AI alapú rendszerek biztonságosságát, átláthatóságát és az etikai normák tiszteletben tartását ezen rendszerek használata során.
Az EU AI Act egy korszakalkotó jogszabály, amelynek célja, hogy szabályozza az AI-rendszerek fejlesztését és használatát az Európai Unión területén belül. A 2024. augusztus 1-jén hatályba lépő jogszabály kockázati szintek alapján kategorizálja az AI-alapú alkalmazásokat – a tiltott gyakorlatoktól a minimális kockázatú rendszerekig -, és egyértelmű szabályokat állapít meg a fejlesztésükre és alkalmazásukra vonatkozóan. Jelentősége abban rejlik, hogy átfogó megközelítéssel védi az alapvető jogokat, miközben támogatja az innovációt. A mesterséges intelligencia etikus irányítására vonatkozó globális normák meghatározásával az EU vezető szerepet kíván betölteni annak biztosításában, hogy az AI-t alkalmazó technológiák a társadalom javát szolgálják anélkül, hogy kárt okoznának.
Az innováció és a védelem egyensúlya: A mesterséges intelligenciával kapcsolatos kockázatok osztályozási rendszere
Az uniós jogszabály négy kockázati kategóriába sorolja a mesterséges intelligenciát használó rendszereket, így biztosítva a potenciális károk alapján arányos és hatékony védelmet. Ez a megközelítés egyensúlyt kíván teremteni az innováció és a biztonság között, szigorúbb szabályokat alkalmazva a kockázatosabb AI-alapú rendszerekre, miközben az alacsonyabb kockázatúakat engedi szabadabban működni. A besorolás meghatározza a fejlesztők és a felhasználók kötelezettségeit, amelyek a teljes tiltástól a minimális felügyeletig terjednek. Ez a rendszer azért jött létre, hogy az AI technológiai fejlődésével párhuzamosan rugalmasságot is biztosítson, és ezáltal lehetővé tegye, hogy a szabályozás továbbra is releváns és hatékony maradjon. Ennek jelentősége abban rejlik, hogy egy uniós szintű jogszabályt nem lehet az egyik napról a másikra módosítani, míg ezzel ellentétben az AI egy olyan rapid módon fejlődő technológia, mely akár óráról órára képes változni, akár a rossz irányba is. Az uniós döntéshozók ezért igyekeztek egy olyan rugalmas, de mégis kellően stabil és megfelelő védelmet nyújtó keretrendszer készíteni, mellyel ez a rohamos tempóban változó technológia lekövethető, és ezzel az esetleges jövőbeni károk vagy veszélyek a minimálisra csökkenthetők, megelőzhetők.
Ennek érdekében az EU új rendelete az alábbi 4 kockázati kategóriába sorolja az AI alapú rendszereket:

Forrás: Rubingh, N. (2024, August 10). The EU AI Act Pyramid of the Risk-Based Approach – LegalAIR. LegalAIR. https://legalair.nl/blog/2024/08/10/risk-based-approach/.
Az elfogadhatatlan kockázatú rendszerek az alapvető jogokat és társadalmi értékeket súlyosan veszélyeztető jellegük miatt tiltólistára kerülnek. Ezek közé tartozik az olyan mesterséges intelligencia, amely szubliminális vagy tudat alatti technikákkal manipulálja a viselkedést, kihasználja bizonyos csoportok sebezhetőségét, vagy társadalmi pontozást végez[1]. Tilosak például a gyermekek veszélyes viselkedésére ösztönző mesterséges intelligencia alapú játékok vagy a társadalmi-gazdasági státusz alapján osztályozó rendszerek használata. Kivételt jelent, hogy a bűnüldözési hatóságok súlyos esetekben korlátozott kivétellel használhatják őket, de ez a felhasználás is szigorú feltételekhez van kötve.
A nagy vagy magas kockázatú mesterséges intelligencia rendszerek jelentősen befolyásolhatják a biztonságot vagy az alapvető jogokat, és szigorú megfelelési követelményeknek kell megfelelniük. Ide tartoznak a kritikus infrastruktúrában, az oktatásban, a foglalkoztatásban, az alapvető szolgáltatásokban, a bűnüldözésben és a határellenőrzésben használt mesterséges intelligencia rendszerek. A besorolási folyamat olyan tényezőket vesz figyelembe, mint a mesterséges intelligencia tervezett célja, az érintett személyek száma és a kár visszafordíthatósága. Például a biometrikus azonosításra vagy a hitelpontszámokkal kapcsolatos döntések meghozatalára szolgáló mesterséges intelligencia rendszereket szigorú tesztelésnek kell alávetni, magas adatminőségi szabványokat kell betartaniuk, és emberi felügyelet mellett vehetőek igénybe. A fejlesztőknek fel kell mérniük a kockázatokat, biztosítaniuk kell az átláthatóságot, és ezeket a rendszereket egy uniós adatbázisban kell regisztrálniuk.
A korlátozott kockázatú mesterséges intelligenciával működő rendszerek különleges átláthatósági kockázatot jelentenek. Ezek közé tartoznak a chatbotok, az érzelemfelismerő rendszerek és a tartalmat generáló vagy manipuláló mesterséges intelligencia (pl. deepfake). Bár nem tiltottak, meg kell felelniük az átláthatósági követelményeknek. A felhasználókat tájékoztatni kell arról, hogy mesterséges intelligenciával lépnek kapcsolatba, és a mesterséges intelligenciával létrehozott tartalmakat erre utaló jelzéssel kell ellátni. Ez biztosítja, hogy az emberek megalapozott döntéseket hozhassanak a mesterséges intelligenciával való interakcióikról, és segít megelőzni a megtévesztést vagy a manipulációt.
A minimális kockázatú mesterséges intelligenciával dolgozó rendszerek nem, vagy csak kis mértékben veszélyeztetik a biztonságot vagy a jogokat, és további követelmények nélkül szabadon használhatók. Ebbe a kategóriába tartozik a legtöbb jelenlegi AI-alkalmazás, például az AI-alapú videójátékok, a spamszűrők és a leltárkezelő rendszerek. Bár ezekre a rendszerekre az AI-rendelet nem ró külön kötelezettségeket, a fejlesztőket arra ösztönzik, hogy a legjobb gyakorlatok és etikai normák betartása érdekében önkéntes magatartási kódexeket kövessenek.
A kockázatoktól a felelősségvállalásig: Miért fontos a mesterséges intelligencia szabályozása?
Az uniós AI-rendelet jelentős felelősséget szab a magas kockázatú AI-rendszerek szolgáltatóinak és alkalmazóinak, hogy biztosítsák a rendszerek biztonságos és etikus használatát az AI teljes életciklusa során. A szolgáltatóknak átfogó kockázatkezelési rendszert kell bevezetniük, megfelelőségértékelést kell végezniük, és a piacra lépés előtt regisztrálniuk kell rendszereiket egy uniós adatbázisban. Olyan rendszereket kell tervezniük, amelyek lehetővé teszik a hatékony emberi felügyeletet, egyértelmű használati utasításokat kell adniuk, és műszaki dokumentációt kell vezetniük. A szolgáltatóknak emellett a forgalomba hozatal utáni felügyeleti rendszereket is be kell vezetniük a használatba vételt követően felmerülő potenciális problémák azonosítása és kezelése érdekében.
A magas kockázatú mesterséges intelligenciát alkalmazó rendszerek telepítőinek saját kötelezettségei vannak, amelyek a megfelelő megvalósításra és az üzemeltetési felügyeletre összpontosítanak. A rendszereket a megadott utasításoknak megfelelően kell használniuk, és megfelelő technikai és szervezési intézkedéseket kell végrehajtaniuk a nyomon követés érdekében. Bizonyos esetekben, például a közszférában működő szervezetek vagy a mesterséges intelligenciát hitelpontozásra használó intézmények esetében a telepítőknek a rendszer üzembe helyezése előtt alapjogi hatásvizsgálatot kell végezniük. A rendszerüzemeltetők felelősek az emberi felügyelet biztosításáért is, szakképzett személyek megbízásával, valamint a szükséges képzés és támogatás biztosításával.
A magas kockázatú mesterséges intelligencia rendszerekre vonatkozó különleges követelmények közé tartoznak a megbízható adatkezelési gyakorlatok, amelyek biztosítják a magas minőségű adatállományokat és minimalizálják a torzításokat. Az átláthatóság alapvető fontosságú, a szolgáltatóknak széles körű dokumentációt kell vezetniük a technikai specifikációkról, a kockázatértékelésekről és a felhasználói iránymutatásokról. Az emberi felügyelet kulcsfontosságú biztosíték, amely lehetővé teszi a természetes személyek számára, hogy megértsék a rendszer képességeit, értelmezzék az eredményeket, és szükség esetén beavatkozzanak. Ez magában foglalja a rendszer felülbírálásának vagy leállításának lehetőségét kritikus helyzetekben.
E követelmények célja olyan keretrendszer létrehozása, amely egyensúlyt teremt az innováció és az alapvető jogok védelme között, biztosítva, hogy a mesterséges intelligenciát alkalmazó rendszereket felelősségteljesen fejlesszék és alkalmazzák. A felelősségek megosztása a szolgáltatók és a telepítők között biztosítja az átfogó felügyeletet a mesterséges intelligenciával működő rendszerek teljes életciklusa során, a kezdeti fejlesztéstől a valós megvalósításig és a folyamatos kockázatcsökkentésig.
Az AI európai őrangyalai: Többszintű felügyeleti rendszer?
Az uniós AI-rendelet átfogó irányítási struktúrát hoz létre a hatékony és következetes végrehajtás biztosítása érdekében. Uniós szinten a Mesterséges Intelligenciával Foglalkozó Európai Testület (AI Board) kulcsfontosságú tanácsadó testület, amely iránymutatást nyújt a végrehajtáshoz, megvitatja az iránymutatás-tervezeteket, valamint tanácsot ad az innovációs politikával és a nemzetközi AI-partnerségekkel kapcsolatban[2]. Az EU újonnan létrehozott, független szakértőkből álló tudományos testület által támogatott Mesterséges Intelligenciával Foglalkozó Európai Hivatal felelős az általános célú mesterséges intelligenciára vonatkozó szabályok végrehajtásáért és az általános megfelelés ellenőrzéséért.
Tagállami szinten pedig az országoknak ki kell jelölniük vagy létre kell hozniuk a mesterséges intelligenciáról szóló jogszabály végrehajtására és betartatására illetékes hatóságokat. Ezek közé tartoznak az értékelési eljárásokért felelős bejelentő hatóságok és a megfelelőséget felügyelő piacfelügyeleti hatóságok. A tagállamok több hatóságot is kijelölhetnek egyértelműen meghatározott feladatokkal, így biztosítva a különböző ágazatok átfogó felügyeletét. Ez a többszintű megközelítés lehetővé teszi az uniós szintű központosított szakértelmet, miközben a hatékony végrehajtás érdekében a helyi ismereteket és erőforrásokat is felhasználja.
A követelmények betartásának ellenőrzése és végrehajtása az uniós és a tagállami szervek közötti együttműködést feltételezi. A piacfelügyeleti hatóságok széleskörű hatáskörrel rendelkeznek, többek között előre be nem jelentett ellenőrzéseket végeznek, termékmintákat vesznek, és hozzáférnek a dokumentációhoz. Visszahívásokat is elrendelhetnek és szankciókat szabhatnak ki a megfelelés elmulasztása esetén. A Hivatal a nemzeti hatóságokkal közös vizsgálatokat folytathat, amelyek határokon átnyúló kérdésekkel foglalkoznak, és biztosítják a jogszabály következetes alkalmazását. Ez az együttműködési struktúra az innováció és a hatékony felügyelet egyensúlyát kívánja megteremteni, elősegítve a mesterséges intelligencia technológiákkal szembeni bizalmat, miközben a felelősségteljes fejlesztést is támogatja.
A végrehajtási intézkedések a jogsértések kockázati szintjével és súlyosságával arányosak. A tiltott AI-gyakorlatok megsértéséért kiszabott bírságok elérhetik a 35 millió eurót, vagy ha az elkövető vállalkozás, az előző pénzügyi év teljes globális éves árbevételének legfeljebb 7 %-át kitevő összegű közigazgatási bírsággal sújtandó, a kettő közül a magasabb összegűt figyelembe véve[3]. Az egyéb jogsértések esetén a bírságok összege elérheti a 15 millió eurót vagy a forgalom 3%-át. Ez a szilárd végrehajtási keret, amely az uniós szintű szakértelmet a nemzeti szintű végrehajtással ötvözi, biztosítja, hogy az uniós piacon a mesterséges intelligencia rendszerek megfeleljenek a biztonsági, átláthatósági és etikai előírásoknak, ugyanakkor rugalmasan kezeli a fejlődő mesterséges intelligencia technológiákat és kihívásokat.
A cikk harmadik, befejező részét ITT olvashatják.
Nyitókép: depositphotos.com
Felhasznált irodalom:
A mesterséges intelligenciáról szóló jogszabály. (2024, November 19). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/hu/policies/regulatory-framework-ai.
Bertaina, S., Biganzoli, I., Desiante, R., Fontanella, D., Inverardi, N., Penco, I. G., & Cosentini, A. C. (2025). Fundamental rights and artificial intelligence impact assessment: A new quantitative methodology in the upcoming era of AI Act. Computer Law & Security Review, 56, 106101. https://doi.org/10.1016/j.clsr.2024.106101.
Ciutat, L. R. (2024). The impact of the EU’s AI Act and Data Act on digital farming technologies. In Lecture notes in computer science (pp. 218–229). https://doi.org/10.1007/978-3-031-73497-7_18.
Smuha, Nathalie A., From a ‘Race to AI’ to a ‘Race to AI Regulation’ – Regulatory Competition for Artificial Intelligence (November 1, 2019). Published in Law, Innovation and Technology, Vol. 13, Iss. 1, 2021, https://ssrn.com/abstract=3501410.
Veale, Michael and Zuiderveen Borgesius, Frederik, Demystifying the Draft EU Artificial Intelligence Act (Július 31, 2021). Computer Law Review International (2021) 22(4) 97-112, https://ssrn.com/abstract=3896852.
Wang, S., Zhang, Y., Xiao, Y., & Liang, Z. (2025). Artificial intelligence policy frameworks in China, the European Union and the United States: An analysis based on structure topic model. Technological Forecasting and Social Change, 212, 123971. https://doi.org/10.1016/j.techfore.2025.123971.White Papers & Studies – Fraunhofer IKS. (n.d.). Fraunhofer Institute for Cognitive Systems IKS. https://www.iks.fraunhofer.de/en/publications/whitepapers-studies.html
[1] EUR-LEX – 52021PC0206 – HU – EUR-LEX. II. Fejezet – TILTOTT MI-GYAKORLATOK 5. cikk Tiltott MI-gyakorlatok (1) a). https://eur-lex.europa.eu/legal-content/HU/TXT/?uri=celex%3A52021PC0206.
[2] A mesterséges intelligenciáról szóló jogszabály – AI Board. (2024, November 19). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/hu/policies/regulatory-framework-ai.
[3] EUR-LEX – 52021PC0206 – HU – EUR-LEX. XII. Fejezet – SZANKCIÓK 99. cikk Szankciók (3). https://eur-lex.europa.eu/legal-content/HU/TXT/?uri=celex%3A52021PC0206.