Szabályozási keretek az MI és a kiberbiztonság területén
Mivel a mesterséges intelligencia (MI) egyre fontosabb szerepet játszik mind a támadó, mind a védelmi kiberműveletekben, a szabályozók egyre inkább átfogó jogi keretek kialakítására törekszenek. Az Európai Unió ezen a területen vezető szerepet tölt be, és integrált szabályozási megközelítést alkalmaz, amely ötvözi az adatvédelmi jogot, a kiberbiztonsági szabályozást és az MI-irányítást.
Az EU mesterséges intelligenciáról szóló rendelete
Az Artificial Intelligence Act (AI Act), az Európai Unió első átfogó jogi kerete a mesterséges intelligencia rendszerek szabályozására. A rendelet célja kettős: egyrészt biztosítani kívánja a mesterséges intelligencia rendszerek biztonságos és megbízható működését, másrészt elő kívánja mozdítani az innovációt és a technológiai fejlődést az európai digitális gazdaságban. A szabályozás a mesterséges intelligencia alkalmazásából eredő társadalmi, gazdasági és biztonsági kockázatok kezelésére irányul, és különös hangsúlyt helyez az alapvető jogok, a személyes adatok védelme, valamint a kritikus infrastruktúrák biztonságának biztosítására (1. cikk; (1)–(5) preambulumbekezdés).
Az MI-rendszer fogalma
A rendelet fogalmi rendszerének kiindulópontja a mesterségesintelligencia-rendszer definíciója. Az AI Act az AI-rendszert olyan gépi alapú rendszerként határozza meg, amely különböző szintű autonómiával működik, és képes olyan kimenetek – például előrejelzések, ajánlások vagy döntések – generálására, amelyek hatással vannak a fizikai vagy digitális környezetre (3. cikk 1. pont). Ez a definíció kifejezetten technológiasemleges módon került megfogalmazásra, és magában foglalja a gépi tanuláson, a statisztikai modelleken vagy más algoritmikus módszereken alapuló rendszereket is. A fogalom széles értelmezése biztosítja, hogy a rendelet alkalmazható legyen a mesterséges intelligencia technológia különböző generációira, beleértve a generatív AI-rendszereket és az autonóm döntéshozó rendszereket is.
Kockázatalapú szabályozás
Az AI Act egyik alapvető sajátossága a kockázatalapú szabályozási modell. A jogalkotó tehát már alapvető megközelítés kijelölésekor számol az MI által felszínre hozott kockázatokkal Ezek között nyilván a többi kockázati kategória között ott találjuk a biztonsági kockázatokat is. A rendelet a mesterséges intelligencia rendszereket különböző kockázati kategóriákba sorolja annak alapján, hogy milyen hatással lehetnek az egyének jogaira, biztonságára vagy a társadalmi rendszerek működésére. A szabályozás négy fő kategóriát különböztet meg:
- az elfogadhatatlan kockázatot jelentő rendszereket
- a magas kockázatú rendszereket
- a korlátozott kockázatú rendszereket és
- a minimális kockázatú rendszereket (5–7. cikk).
Elfogadhatatlan kockázatot jelentő AI-rendszerek
Az elfogadhatatlan kockázatot jelentő AI-rendszerek alkalmazása a rendelet értelmében tilos. Ide tartoznak például azok a rendszerek, amelyek manipulációs technikák segítségével jelentős mértékben torzíthatják az emberek viselkedését, vagy amelyek társadalmi pontozási rendszereket hoznak létre a személyek értékelésére (5. cikk). E tilalmak célja az alapvető jogok és a demokratikus értékek védelme a mesterséges intelligencia potenciálisan visszaélésszerű alkalmazásával szemben.
Magas kockázatú AI-rendszerek
A szabályozás központi eleme a magas kockázatú AI-rendszerek kategóriája. Az ilyen rendszerek olyan területeken működnek, amelyek jelentős hatással lehetnek az emberek életére vagy a társadalom működésére. A rendelet példaként említi a kritikus infrastruktúrák működtetését, az oktatási rendszereket, a foglalkoztatási döntéseket, a hitelbírálatot vagy a bűnüldözési alkalmazásokat (6. cikk; III. melléklet). A magas kockázatú rendszerek esetében a jogalkotó részletes követelményrendszert állapít meg, amelynek célja a rendszerek biztonságának, megbízhatóságának és átláthatóságának biztosítása.
A magas kockázatú rendszerekre vonatkozó egyik legfontosabb követelmény a kockázatkezelési rendszer kialakítása (9. cikk). A szolgáltatóknak olyan folyamatos kockázatelemzési és kockázatcsökkentési mechanizmusokat kell alkalmazniuk, amelyek biztosítják, hogy az AI-rendszer működése során felmerülő kockázatok megfelelően kezelhetők legyenek. Ez a követelmény különösen fontos a mesterséges intelligencia rendszerek biztonsági dimenziója szempontjából, mivel az algoritmusok működése gyakran komplex és nehezen előre jelezhető.
A rendelet jelentős hangsúlyt fektet az adatminőség és az adatkormányzás kérdésére is. A magas kockázatú rendszerek fejlesztése során alkalmazott adatkészleteknek megfelelő minőségűnek, relevánsnak és torzításoktól lehetőség szerint mentesnek kell lenniük (10. cikk). Ez a követelmény nem csupán a diszkrimináció elkerülését szolgálja, hanem a mesterséges intelligencia rendszerek biztonságos működésének egyik alapfeltétele is.
A szabályozás külön rendelkezéseket tartalmaz a technikai dokumentációra és a naplózási kötelezettségekre vonatkozóan is (11–12. cikk). Az AI-rendszerek szolgáltatóinak részletes dokumentációt kell készíteniük a rendszer működéséről, valamint biztosítaniuk kell a működés nyomon követhetőségét. Ez a követelmény lehetővé teszi a hatóságok számára a rendszerek működésének ellenőrzését, és hozzájárul a rendszerek biztonságának és megbízhatóságának javításához.
A rendelet a humán felügyelet elvére is nagy hangsúlyt helyez. A magas kockázatú AI-rendszereknek olyan módon kell működniük, hogy az emberi felhasználók képesek legyenek ellenőrizni és szükség esetén korrigálni a rendszer működését (14. cikk). Ez a követelmény különösen fontos azokban az esetekben, amikor a mesterséges intelligencia rendszerek kritikus döntések meghozatalában vesznek részt.
Jogérvényesítés
Az AI Act végrehajtásának intézményi kerete több szinten szerveződik. A tagállamok kötelesek kijelölni nemzeti felügyeleti hatóságokat, amelyek ellenőrzik a rendelet alkalmazását és biztosítják a megfelelőségi követelmények betartását (70. cikk). Uniós szinten a szabályozás koordinációját az AI Office, valamint az Európai Mesterséges Intelligencia Testület látja el, amelyek elősegítik a tagállamok közötti együttműködést és az egységes jogalkalmazást.
A rendelet végrehajtási mechanizmusa részben az európai termékbiztonsági szabályozás logikájára épül. A magas kockázatú rendszerek esetében megfelelőségértékelési eljárásokat kell lefolytatni, amelyek során ellenőrzik a rendszer megfelelését a rendelet követelményeinek (43. cikk). A megfelelőséget követően a rendszert CE-jelöléssel lehet ellátni, ami lehetővé teszi annak forgalomba hozatalát az Európai Unió piacán.
A mesterséges intelligencia rendszerek biztonsági kihívásai különösen összetettek. Az AI-alapú rendszerek sebezhetőek lehetnek például adatmérgezési támadásokkal, modellmanipulációval vagy adverszariális bemenetekkel szemben. Az AI Act által előírt kockázatkezelési, dokumentációs és felügyeleti mechanizmusok célja éppen az, hogy ezek a biztonsági kockázatok megfelelő módon kezelhetők legyenek.
Összességében az AI Act az Európai Unió digitális szabályozási rendszerének egyik legfontosabb új eleme, amely a mesterséges intelligencia technológiák biztonságos és felelős alkalmazását kívánja biztosítani. A rendelet kockázatalapú megközelítése, részletes megfelelőségi követelményei és intézményi struktúrája olyan átfogó jogi keretet hoz létre, amely képes kezelni a mesterséges intelligencia rendszerek által felvetett biztonsági és társadalmi kihívásokat az Európai Unióban.
A Cyber Resilience Act
A Cyber Resilience Act (CRA), az Európai Unió digitális biztonsági szabályozásának egyik legjelentősebb új eleme. A rendelet célja, hogy egységes és kötelező kiberbiztonsági követelményeket vezessen be a digitális elemekkel rendelkező termékekre vonatkozóan, és ezáltal növelje az Európai Unió belső piacán forgalomba hozott hardver- és szoftvertermékek biztonsági szintjét. A jogalkotó abból a felismerésből indult ki, hogy a digitális infrastruktúrák növekvő összekapcsoltsága következtében a termékekben található sebezhetőségek nem csupán egyedi felhasználókat érintő problémákat jelentenek, hanem rendszerszintű kockázatokat is hordoznak a gazdaság és a társadalom egésze számára. A rendelet ezért horizontális termékbiztonsági megközelítést alkalmaz, amely a kiberbiztonságot a digitális termékek piacra jutásának alapvető feltételévé teszi (1. cikk; (1)–(7) preambulumbekezdés).
A CRA hatálya
A szabályozás hatálya minden olyan digitális elemekkel rendelkező termékre kiterjed, amelynek rendeltetésszerű vagy ésszerűen előrelátható használata során közvetlen vagy közvetett adatkapcsolat jön létre más eszközökkel, vagy hálózatokkal. A rendelet e termékkategóriát a hardver- és szoftvertermékek széles körére kiterjeszti, beleértve az ilyen termékekhez kapcsolódó távoli adatfeldolgozási megoldásokat is (3. cikk 1–2. pont). A szabályozás horizontális jellege miatt a rendelet nem egyetlen technológiai területre koncentrál, hanem a digitális termékek teljes spektrumára kiterjed, amely magában foglalhatja az IoT-eszközöket, ipari irányítási rendszereket, valamint különféle szoftveralkalmazásokat is.
E széles hatály következtében a rendelet közvetetten a mesterséges intelligenciát alkalmazó rendszerekre is alkalmazható, amennyiben azok digitális elemekkel rendelkező termékként jelennek meg a piacon. Ha egy mesterséges intelligenciát használó szoftver vagy beágyazott rendszer hálózati kapcsolattal rendelkezik, illetve digitális termékként kerül forgalomba, akkor a CRA kiberbiztonsági követelményei rá is kiterjedhetnek. A szakirodalom és a jogi elemzések ezért hangsúlyozzák, hogy a rendelet nem csupán hagyományos szoftverekre vagy hardvertermékekre, hanem AI-alapú rendszerek fejlesztőire és gyártóira is hatással lehet – SWK Schwarz (2024).
A rendelet központi szereplői az úgynevezett gazdasági szereplők, amelyek körébe a gyártók, meghatalmazott képviselők, importőrök és forgalmazók tartoznak (3. cikk 13–16. pont). A szabályozás differenciált felelősségi rendszert hoz létre, amelyben a legjelentősebb kötelezettségek a gyártókat terhelik. A gyártóknak biztosítaniuk kell, hogy a digitális elemekkel rendelkező termékek – beleértve az esetleges mesterséges intelligencia-komponenseket is – megfeleljenek a rendeletben meghatározott alapvető kiberbiztonsági követelményeknek már a tervezési és fejlesztési szakaszban (13. cikk).
Szabályozási alapelvek
A CRA egyik alapvető sajátossága, hogy a kiberbiztonságot életciklusalapú kötelezettségként fogja fel. A gyártóknak a termék fejlesztése során kockázatelemzést kell végezniük, amelynek eredményeit a tervezési döntések során figyelembe kell venniük. A termékeknek olyan műszaki megoldásokkal kell rendelkezniük, amelyek minimalizálják a támadási felületet, és alapértelmezett konfigurációjukban is megfelelő biztonsági szintet biztosítanak. A rendelet kifejezetten előírja a „security by design” és „security by default” elveinek alkalmazását (15. cikk; I. melléklet I. rész).
E követelmények a mesterséges intelligencia rendszerek esetében különös jelentőséggel bírnak. Az MI-rendszerek sajátossága, hogy gyakran komplex adatfeldolgozási folyamatokra, gépi tanulási modellekre és folyamatos frissítésekre épülnek, amelyek új típusú sebezhetőségeket eredményezhetnek. A CRA által megkövetelt sérülékenységkezelési és frissítési mechanizmusok ezért alkalmasak arra, hogy az MI-rendszerekben megjelenő kiberbiztonsági kockázatokat – például a modellmanipulációt, az adatmérgezési támadásokat vagy a rendszer jogosulatlan módosítását – kezeljék.
Fontos azonban hangsúlyozni, hogy a CRA nem az MI-rendszerek működésének tartalmi szabályozására irányul. Ezt a szerepet elsősorban az AI Act tölti be, amely a mesterséges intelligencia rendszereit kockázati kategóriák szerint szabályozza, és külön követelményeket állapít meg a magas kockázatú rendszerek számára, például a pontosság, a robusztusság és a kiberbiztonság tekintetében (AI Act 15. cikk). (taylorwessing.com)
Egy komplementer szabályozás
A két szabályozás közötti kapcsolat ezért komplementer jellegű. Az AI Act elsősorban az MI-rendszerek működésének, kockázatkezelésének és felügyeletének szabályozását célozza, míg a Cyber Resilience Act a digitális termékek kiberbiztonsági tulajdonságaira koncentrál. Amennyiben egy MI-rendszer digitális termékként kerül forgalomba – például szoftvertermékként, robotikai rendszer részeként vagy intelligens IoT-eszközben –, a két rendelet követelményei párhuzamosan alkalmazandók lehetnek.
Sérülékenység és megfelelőség
A CRA részletesen szabályozza a sérülékenységkezelési kötelezettségeket is. A gyártóknak a termék teljes támogatási időszakában figyelemmel kell kísérniük a sebezhetőségeket, és megfelelő biztonsági frissítéseket kell biztosítaniuk (I. melléklet II. rész). Súlyos incidensek vagy aktívan kihasznált sebezhetőségek esetén a gyártók kötelesek az illetékes hatóságokat értesíteni és együttműködni a probléma kezelésében (14. cikk).
A termékek megfelelőségének biztosítása érdekében a rendelet a klasszikus uniós termékbiztonsági szabályozás logikáját követi. A gyártóknak megfelelőségértékelési eljárást kell lefolytatniuk, EU-megfelelőségi nyilatkozatot kell kiállítaniuk, és a terméket CE-jelöléssel kell ellátniuk (24–28. cikk). A kockázati szempontból érzékenyebb termékek esetében kijelölt megfelelőségértékelő szervezetek bevonása is szükséges lehet (32. cikk).
Jogérvényesítés
A rendelet végrehajtását a tagállami piacfelügyeleti hatóságok biztosítják, amelyek ellenőrzik a termékek megfelelőségét és szükség esetén korlátozó intézkedéseket hozhatnak (40–42. cikk). Az európai szintű koordinációban az Európai Bizottság és az ENISA is szerepet játszik, különösen a sérülékenységek kezelésével és a technikai iránymutatások kidolgozásával kapcsolatban.
Összességében megállapítható, hogy a Cyber Resilience Act az európai kiberbiztonsági jog egyik alapvető pillérét képezi, amely a digitális termékek biztonságát horizontális módon szabályozza. Bár a rendelet nem kifejezetten a mesterséges intelligencia rendszerek szabályozására irányul, hatálya kiterjedhet azokra az AI-alapú rendszerekre is, amelyek digitális termékként kerülnek forgalomba. Ebben az értelemben a CRA az AI-szabályozás európai rendszerében kiegészítő szerepet tölt be: míg az AI Act a mesterséges intelligencia rendszerek működésével és kockázataival foglalkozik, addig a Cyber Resilience Act biztosítja, hogy az ilyen rendszerek technológiai infrastruktúrája megfelelő kiberbiztonsági védelemmel rendelkezzen.
Nyitókép forrása: vska / depositphotos.com




