Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Navracsics Tibor

Példák a nemzeti érdek érvényesítésére III.: A brit visszatérítés kérdése

Az új tagok pénzügyi hozzájárulásának rendszerét két szakaszra osztották.

Navracsics Tibor 2026.04.09.
Vadász Pál

Tényleg tiltsuk el a kiskorúakat a közösségi médiától?

Kiöntjük a fürdővízzel a gyereket is?

Vadász Pál 2026.04.08.
Hőnich Henrik

A magyar liberalizmus gyökerei és a rendszeres bizottsági munkálatok

A vita lényegében a magyar(országi) politikai modernitás genezise körül forog.

Hőnich Henrik 2026.04.07.
Szikora Tamás

Rendszerszintű kockázatok és választások védelme a DSA fényében

A jelentés szerint hatalmas mennyiségben terjednek hamis vagy félrevezető politikai állítások.

Szikora Tamás 2026.04.07.
Zsivity Tímea

Vétóreform Montenegróban

Alkotmányos garancia vagy politikai eszköz?

Zsivity Tímea 2026.03.31.
ITKI BLOG
Picture of Balogh Zsolt György
Balogh Zsolt György
kutató, NKE Információs Társadalom Kutatóintézet
  • 2026.04.13.
  • 2026.04.13.

Az MI hatása a kiberbiztonságra – II. rész

Szabályozási keretek az MI és a kiberbiztonság területén

Mivel a mesterséges intelligencia (MI) egyre fontosabb szerepet játszik mind a támadó, mind a védelmi kiberműveletekben, a szabályozók egyre inkább átfogó jogi keretek kialakítására törekszenek. Az Európai Unió ezen a területen vezető szerepet tölt be, és integrált szabályozási megközelítést alkalmaz, amely ötvözi az adatvédelmi jogot, a kiberbiztonsági szabályozást és az MI-irányítást.

Az EU mesterséges intelligenciáról szóló rendelete

Az Artificial Intelligence Act (AI Act), az Európai Unió első átfogó jogi kerete a mesterséges intelligencia rendszerek szabályozására. A rendelet célja kettős: egyrészt biztosítani kívánja a mesterséges intelligencia rendszerek biztonságos és megbízható működését, másrészt elő kívánja mozdítani az innovációt és a technológiai fejlődést az európai digitális gazdaságban. A szabályozás a mesterséges intelligencia alkalmazásából eredő társadalmi, gazdasági és biztonsági kockázatok kezelésére irányul, és különös hangsúlyt helyez az alapvető jogok, a személyes adatok védelme, valamint a kritikus infrastruktúrák biztonságának biztosítására (1. cikk; (1)–(5) preambulumbekezdés).

Az MI-rendszer fogalma

A rendelet fogalmi rendszerének kiindulópontja a mesterségesintelligencia-rendszer definíciója. Az AI Act az AI-rendszert olyan gépi alapú rendszerként határozza meg, amely különböző szintű autonómiával működik, és képes olyan kimenetek – például előrejelzések, ajánlások vagy döntések – generálására, amelyek hatással vannak a fizikai vagy digitális környezetre (3. cikk 1. pont). Ez a definíció kifejezetten technológiasemleges módon került megfogalmazásra, és magában foglalja a gépi tanuláson, a statisztikai modelleken vagy más algoritmikus módszereken alapuló rendszereket is. A fogalom széles értelmezése biztosítja, hogy a rendelet alkalmazható legyen a mesterséges intelligencia technológia különböző generációira, beleértve a generatív AI-rendszereket és az autonóm döntéshozó rendszereket is.

Kockázatalapú szabályozás

Az AI Act egyik alapvető sajátossága a kockázatalapú szabályozási modell. A jogalkotó tehát már alapvető megközelítés kijelölésekor számol az MI által felszínre hozott kockázatokkal Ezek között nyilván a többi kockázati kategória között ott találjuk a biztonsági kockázatokat is. A rendelet a mesterséges intelligencia rendszereket különböző kockázati kategóriákba sorolja annak alapján, hogy milyen hatással lehetnek az egyének jogaira, biztonságára vagy a társadalmi rendszerek működésére. A szabályozás négy fő kategóriát különböztet meg:

  • az elfogadhatatlan kockázatot jelentő rendszereket
  • a magas kockázatú rendszereket
  • a korlátozott kockázatú rendszereket és
  • a minimális kockázatú rendszereket (5–7. cikk).

Elfogadhatatlan kockázatot jelentő AI-rendszerek

Az elfogadhatatlan kockázatot jelentő AI-rendszerek alkalmazása a rendelet értelmében tilos. Ide tartoznak például azok a rendszerek, amelyek manipulációs technikák segítségével jelentős mértékben torzíthatják az emberek viselkedését, vagy amelyek társadalmi pontozási rendszereket hoznak létre a személyek értékelésére (5. cikk). E tilalmak célja az alapvető jogok és a demokratikus értékek védelme a mesterséges intelligencia potenciálisan visszaélésszerű alkalmazásával szemben.

Magas kockázatú AI-rendszerek

A szabályozás központi eleme a magas kockázatú AI-rendszerek kategóriája. Az ilyen rendszerek olyan területeken működnek, amelyek jelentős hatással lehetnek az emberek életére vagy a társadalom működésére. A rendelet példaként említi a kritikus infrastruktúrák működtetését, az oktatási rendszereket, a foglalkoztatási döntéseket, a hitelbírálatot vagy a bűnüldözési alkalmazásokat (6. cikk; III. melléklet). A magas kockázatú rendszerek esetében a jogalkotó részletes követelményrendszert állapít meg, amelynek célja a rendszerek biztonságának, megbízhatóságának és átláthatóságának biztosítása.

A magas kockázatú rendszerekre vonatkozó egyik legfontosabb követelmény a kockázatkezelési rendszer kialakítása (9. cikk). A szolgáltatóknak olyan folyamatos kockázatelemzési és kockázatcsökkentési mechanizmusokat kell alkalmazniuk, amelyek biztosítják, hogy az AI-rendszer működése során felmerülő kockázatok megfelelően kezelhetők legyenek. Ez a követelmény különösen fontos a mesterséges intelligencia rendszerek biztonsági dimenziója szempontjából, mivel az algoritmusok működése gyakran komplex és nehezen előre jelezhető.

A rendelet jelentős hangsúlyt fektet az adatminőség és az adatkormányzás kérdésére is. A magas kockázatú rendszerek fejlesztése során alkalmazott adatkészleteknek megfelelő minőségűnek, relevánsnak és torzításoktól lehetőség szerint mentesnek kell lenniük (10. cikk). Ez a követelmény nem csupán a diszkrimináció elkerülését szolgálja, hanem a mesterséges intelligencia rendszerek biztonságos működésének egyik alapfeltétele is.

A szabályozás külön rendelkezéseket tartalmaz a technikai dokumentációra és a naplózási kötelezettségekre vonatkozóan is (11–12. cikk). Az AI-rendszerek szolgáltatóinak részletes dokumentációt kell készíteniük a rendszer működéséről, valamint biztosítaniuk kell a működés nyomon követhetőségét. Ez a követelmény lehetővé teszi a hatóságok számára a rendszerek működésének ellenőrzését, és hozzájárul a rendszerek biztonságának és megbízhatóságának javításához.

A rendelet a humán felügyelet elvére is nagy hangsúlyt helyez. A magas kockázatú AI-rendszereknek olyan módon kell működniük, hogy az emberi felhasználók képesek legyenek ellenőrizni és szükség esetén korrigálni a rendszer működését (14. cikk). Ez a követelmény különösen fontos azokban az esetekben, amikor a mesterséges intelligencia rendszerek kritikus döntések meghozatalában vesznek részt.

Jogérvényesítés

Az AI Act végrehajtásának intézményi kerete több szinten szerveződik. A tagállamok kötelesek kijelölni nemzeti felügyeleti hatóságokat, amelyek ellenőrzik a rendelet alkalmazását és biztosítják a megfelelőségi követelmények betartását (70. cikk). Uniós szinten a szabályozás koordinációját az AI Office, valamint az Európai Mesterséges Intelligencia Testület látja el, amelyek elősegítik a tagállamok közötti együttműködést és az egységes jogalkalmazást.

A rendelet végrehajtási mechanizmusa részben az európai termékbiztonsági szabályozás logikájára épül. A magas kockázatú rendszerek esetében megfelelőségértékelési eljárásokat kell lefolytatni, amelyek során ellenőrzik a rendszer megfelelését a rendelet követelményeinek (43. cikk). A megfelelőséget követően a rendszert CE-jelöléssel lehet ellátni, ami lehetővé teszi annak forgalomba hozatalát az Európai Unió piacán.

A mesterséges intelligencia rendszerek biztonsági kihívásai különösen összetettek. Az AI-alapú rendszerek sebezhetőek lehetnek például adatmérgezési támadásokkal, modellmanipulációval vagy adverszariális bemenetekkel szemben. Az AI Act által előírt kockázatkezelési, dokumentációs és felügyeleti mechanizmusok célja éppen az, hogy ezek a biztonsági kockázatok megfelelő módon kezelhetők legyenek.

Összességében az AI Act az Európai Unió digitális szabályozási rendszerének egyik legfontosabb új eleme, amely a mesterséges intelligencia technológiák biztonságos és felelős alkalmazását kívánja biztosítani. A rendelet kockázatalapú megközelítése, részletes megfelelőségi követelményei és intézményi struktúrája olyan átfogó jogi keretet hoz létre, amely képes kezelni a mesterséges intelligencia rendszerek által felvetett biztonsági és társadalmi kihívásokat az Európai Unióban.

A Cyber Resilience Act

A Cyber Resilience Act (CRA), az Európai Unió digitális biztonsági szabályozásának egyik legjelentősebb új eleme. A rendelet célja, hogy egységes és kötelező kiberbiztonsági követelményeket vezessen be a digitális elemekkel rendelkező termékekre vonatkozóan, és ezáltal növelje az Európai Unió belső piacán forgalomba hozott hardver- és szoftvertermékek biztonsági szintjét. A jogalkotó abból a felismerésből indult ki, hogy a digitális infrastruktúrák növekvő összekapcsoltsága következtében a termékekben található sebezhetőségek nem csupán egyedi felhasználókat érintő problémákat jelentenek, hanem rendszerszintű kockázatokat is hordoznak a gazdaság és a társadalom egésze számára. A rendelet ezért horizontális termékbiztonsági megközelítést alkalmaz, amely a kiberbiztonságot a digitális termékek piacra jutásának alapvető feltételévé teszi (1. cikk; (1)–(7) preambulumbekezdés).

A CRA hatálya

A szabályozás hatálya minden olyan digitális elemekkel rendelkező termékre kiterjed, amelynek rendeltetésszerű vagy ésszerűen előrelátható használata során közvetlen vagy közvetett adatkapcsolat jön létre más eszközökkel, vagy hálózatokkal. A rendelet e termékkategóriát a hardver- és szoftvertermékek széles körére kiterjeszti, beleértve az ilyen termékekhez kapcsolódó távoli adatfeldolgozási megoldásokat is (3. cikk 1–2. pont). A szabályozás horizontális jellege miatt a rendelet nem egyetlen technológiai területre koncentrál, hanem a digitális termékek teljes spektrumára kiterjed, amely magában foglalhatja az IoT-eszközöket, ipari irányítási rendszereket, valamint különféle szoftveralkalmazásokat is.

E széles hatály következtében a rendelet közvetetten a mesterséges intelligenciát alkalmazó rendszerekre is alkalmazható, amennyiben azok digitális elemekkel rendelkező termékként jelennek meg a piacon. Ha egy mesterséges intelligenciát használó szoftver vagy beágyazott rendszer hálózati kapcsolattal rendelkezik, illetve digitális termékként kerül forgalomba, akkor a CRA kiberbiztonsági követelményei rá is kiterjedhetnek. A szakirodalom és a jogi elemzések ezért hangsúlyozzák, hogy a rendelet nem csupán hagyományos szoftverekre vagy hardvertermékekre, hanem AI-alapú rendszerek fejlesztőire és gyártóira is hatással lehet – SWK Schwarz (2024).

A rendelet központi szereplői az úgynevezett gazdasági szereplők, amelyek körébe a gyártók, meghatalmazott képviselők, importőrök és forgalmazók tartoznak (3. cikk 13–16. pont). A szabályozás differenciált felelősségi rendszert hoz létre, amelyben a legjelentősebb kötelezettségek a gyártókat terhelik. A gyártóknak biztosítaniuk kell, hogy a digitális elemekkel rendelkező termékek – beleértve az esetleges mesterséges intelligencia-komponenseket is – megfeleljenek a rendeletben meghatározott alapvető kiberbiztonsági követelményeknek már a tervezési és fejlesztési szakaszban (13. cikk).

Szabályozási alapelvek

A CRA egyik alapvető sajátossága, hogy a kiberbiztonságot életciklusalapú kötelezettségként fogja fel. A gyártóknak a termék fejlesztése során kockázatelemzést kell végezniük, amelynek eredményeit a tervezési döntések során figyelembe kell venniük. A termékeknek olyan műszaki megoldásokkal kell rendelkezniük, amelyek minimalizálják a támadási felületet, és alapértelmezett konfigurációjukban is megfelelő biztonsági szintet biztosítanak. A rendelet kifejezetten előírja a „security by design” és „security by default” elveinek alkalmazását (15. cikk; I. melléklet I. rész).

E követelmények a mesterséges intelligencia rendszerek esetében különös jelentőséggel bírnak. Az MI-rendszerek sajátossága, hogy gyakran komplex adatfeldolgozási folyamatokra, gépi tanulási modellekre és folyamatos frissítésekre épülnek, amelyek új típusú sebezhetőségeket eredményezhetnek. A CRA által megkövetelt sérülékenységkezelési és frissítési mechanizmusok ezért alkalmasak arra, hogy az MI-rendszerekben megjelenő kiberbiztonsági kockázatokat – például a modellmanipulációt, az adatmérgezési támadásokat vagy a rendszer jogosulatlan módosítását – kezeljék.

Fontos azonban hangsúlyozni, hogy a CRA nem az MI-rendszerek működésének tartalmi szabályozására irányul. Ezt a szerepet elsősorban az AI Act tölti be, amely a mesterséges intelligencia rendszereit kockázati kategóriák szerint szabályozza, és külön követelményeket állapít meg a magas kockázatú rendszerek számára, például a pontosság, a robusztusság és a kiberbiztonság tekintetében (AI Act 15. cikk). (taylorwessing.com)

Egy komplementer szabályozás

A két szabályozás közötti kapcsolat ezért komplementer jellegű. Az AI Act elsősorban az MI-rendszerek működésének, kockázatkezelésének és felügyeletének szabályozását célozza, míg a Cyber Resilience Act a digitális termékek kiberbiztonsági tulajdonságaira koncentrál. Amennyiben egy MI-rendszer digitális termékként kerül forgalomba – például szoftvertermékként, robotikai rendszer részeként vagy intelligens IoT-eszközben –, a két rendelet követelményei párhuzamosan alkalmazandók lehetnek.

Sérülékenység és megfelelőség

A CRA részletesen szabályozza a sérülékenységkezelési kötelezettségeket is. A gyártóknak a termék teljes támogatási időszakában figyelemmel kell kísérniük a sebezhetőségeket, és megfelelő biztonsági frissítéseket kell biztosítaniuk (I. melléklet II. rész). Súlyos incidensek vagy aktívan kihasznált sebezhetőségek esetén a gyártók kötelesek az illetékes hatóságokat értesíteni és együttműködni a probléma kezelésében (14. cikk).

A termékek megfelelőségének biztosítása érdekében a rendelet a klasszikus uniós termékbiztonsági szabályozás logikáját követi. A gyártóknak megfelelőségértékelési eljárást kell lefolytatniuk, EU-megfelelőségi nyilatkozatot kell kiállítaniuk, és a terméket CE-jelöléssel kell ellátniuk (24–28. cikk). A kockázati szempontból érzékenyebb termékek esetében kijelölt megfelelőségértékelő szervezetek bevonása is szükséges lehet (32. cikk).

Jogérvényesítés

A rendelet végrehajtását a tagállami piacfelügyeleti hatóságok biztosítják, amelyek ellenőrzik a termékek megfelelőségét és szükség esetén korlátozó intézkedéseket hozhatnak (40–42. cikk). Az európai szintű koordinációban az Európai Bizottság és az ENISA is szerepet játszik, különösen a sérülékenységek kezelésével és a technikai iránymutatások kidolgozásával kapcsolatban.

Összességében megállapítható, hogy a Cyber Resilience Act az európai kiberbiztonsági jog egyik alapvető pillérét képezi, amely a digitális termékek biztonságát horizontális módon szabályozza. Bár a rendelet nem kifejezetten a mesterséges intelligencia rendszerek szabályozására irányul, hatálya kiterjedhet azokra az AI-alapú rendszerekre is, amelyek digitális termékként kerülnek forgalomba. Ebben az értelemben a CRA az AI-szabályozás európai rendszerében kiegészítő szerepet tölt be: míg az AI Act a mesterséges intelligencia rendszerek működésével és kockázataival foglalkozik, addig a Cyber Resilience Act biztosítja, hogy az ilyen rendszerek technológiai infrastruktúrája megfelelő kiberbiztonsági védelemmel rendelkezzen.

Az MI hatása a kiberbiztonságra – I. rész

Nyitókép forrása: vska / depositphotos.com

Témakörök: jog, mesterséges intelligencia, technológia
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT