A mesterséges intelligencia kettős szerepe: fenyegetést erősítő tényező és védelmi infrastruktúra
A mesterséges intelligencia (MI) gyorsan átalakította a kiberbiztonság környezetét. Egyrészt az MI-rendszerek erősítik a védekezési képességeket azáltal, hogy lehetővé teszik a fenyegetések automatizált felismerését, a sebezhetőségek előrejelzését és a kiberincidensekre adott valós idejű reakciókat. Másrészt ugyanazok a technológiák jelentősen megerősítik a rosszindulatú szereplőket, akik az MI-t kifinomult adathalász kampányok létrehozására, adaptív kártevők fejlesztésére és kibertámadások automatizálására használhatják.
Ez a kettősség jelentős kihívást jelent a szabályozók és a döntéshozók számára. A jelen bejegyzés a mesterséges intelligencia és a kiberbiztonsági szabályozás kapcsolatát vizsgálja, különös tekintettel az európai szabályozási keretrendszer kialakulására. Elemzi az MI támadó és védelmi dimenzióit a kibertérben, és értékeli, hogy a jelenlegi jogi eszközök – például az EU mesterséges intelligenciáról szóló rendelete (AI Act), a Cyber Resilience Act, a NIS2 irányelv és a GDPR – miként kezelik az MI-vel kapcsolatos kiberkockázatokat.
Külön figyelmet kap az MI által támogatott kiberbűnözés jelensége, beleértve azokat a kártevőprogramokat is, amelyek generatív MI-rendszereket használnak parancsgenerálásra és adatkinyerésre. A tanulmány amellett érvel, hogy a hatékony irányítás integrált szabályozási megközelítést igényel, amely ötvözi a kiberbiztonsági jogot, az MI-irányítást és a büntetőjogi végrehajtási mechanizmusokat.
Végső soron a mesterséges intelligenciát nem csupán potenciális kockázatként kell szabályozni, hanem stratégiai módon a kiberbiztonsági védelem és a digitális szuverenitás egyik alapköveként kell integrálni.
A mesterséges intelligencia a XXI. század egyik legátalakítóbb technológiájává vált. Az MI-rendszerek egyre inkább beépülnek a kritikus infrastruktúrákba, a digitális platformokba és az állami szolgáltatásokba. Az a képességük, hogy hatalmas mennyiségű adatot elemezzenek, mintázatokat ismerjenek fel és automatizált döntéshozatalt támogassanak, jelentős lehetőségeket teremtett a digitális rendszerek hatékonyságának és biztonságának javítására. Ugyanakkor az MI-képességek gyors bővülése új sérülékenységeket és kockázatokat is létrehoz.
A kiberbiztonság az egyik legfontosabb terület, ahol a mesterséges intelligencia hatásai intenzív viták tárgyát képezik. Az MI-technológiák egyszerre erősítik a védekezési képességeket, és bővítik a kiberbűnözők és ellenséges állami szereplők támadó eszköztárát. Ez a kettős szerep azt a szélesebb jelenséget tükrözi, hogy az informatikai innovációk gyakran egyszerre működnek védelmi és romboló erőként.
A mesterséges intelligencia a számítástechnika azon területeként határozható meg, amely olyan rendszerek létrehozásával foglalkozik, amelyek képesek az emberi intelligenciát igénylő feladatok – például tanulás, érvelés vagy döntéshozatal – elvégzésére (Russell & Norvig, 2021).
Az MI egyik különösen jelentős fejlődési iránya a generatív mesterséges intelligencia, amely képes új tartalmak – például szöveg, programkód, képek vagy hang – létrehozására tanítóadatok alapján (Goodfellow, Bengio & Courville, 2016). Bár a generatív MI produktív módon használható kutatásban, kommunikációban vagy programozásban, alkalmas lehet rosszindulatú kód generálására, társadalmi manipulációs támadások automatizálására vagy dezinformációs kampányok támogatására is.
Az európai szakpolitikai viták azt is mutatják, hogy az MI-vel kapcsolatos kiberbiztonsági kockázatok nem pusztán technikai jellegűek, hanem geopolitikai dimenzióval is rendelkeznek. A digitális szuverenitással és a külföldi technológiai platformoktól való függőséggel kapcsolatos aggodalmak egyre hangsúlyosabbá váltak az európai politikai diskurzusban. Az európai vállalatok jelentős mértékű függősége az amerikai technológiai szolgáltatóktól rámutat a kiberbiztonsági kormányzás stratégiai jelentőségére. A legújabb elemzések szerint az európai vállalatok jelentős része amerikai digitális infrastruktúrákra és felhőszolgáltatásokra támaszkodik, ami kérdéseket vet fel az érzékeny adatok feletti ellenőrzés és a technológiai autonómia tekintetében.
Ezzel párhuzamosan a kormányzati intézmények, a magánvállalatok és a kritikus infrastruktúrák elleni kibertámadások száma növekszik. Az ukrajnai háború és az államilag támogatott kiberműveletek fokozódása rávilágított arra, hogy a kiberreziliencia a szuverenitás egyik alapvető elemévé vált.
Ebben a helyzetben a szabályozóknak összetett kihívással kell szembenézniük. A jogi kereteknek két egymással összefüggő célt kell szolgálniuk:
- az MI rosszindulatú felhasználásának megelőzését a kibertámadásokban
- az MI felelős alkalmazásának előmozdítását a kiberbiztonsági védelemben
A jelen bejegyzés azt elemzi, hogy a meglévő és kialakulóban lévő jogi eszközök miként próbálják összehangolni ezeket a célokat. Elemzése elsősorban az Európai Unió szabályozási ökoszisztémájára összpontosít, miközben a kérdést a nemzetközi kiberbiztonsági kormányzás szélesebb összefüggésében tárgyalja.
A mesterséges intelligencia mint kiberbiztonsági fenyegetést erősítő tényező
MI-vezérelt kibertámadások
A kiberbűnözők mindig is gyorsan alkalmazkodtak az új technológiákhoz annak érdekében, hogy növeljék műveleteik hatékonyságát és méretét. A mesterséges intelligencia jelentősen felgyorsítja ezt a folyamatot. A gépi tanulási modellek és a generatív MI-rendszerek lehetővé teszik olyan feladatok automatizálását, amelyek korábban jelentős technikai szakértelmet igényeltek.
Az egyik legismertebb példa az MI-támogatott adathalászat (AI-assisted phishing). A hagyományos adathalász kampányok gyakran rosszul megírt e-mailekre épültek, amelyeket a felhasználók könnyen felismerhettek. A generatív nyelvi modellek azonban ma már lehetővé teszik rendkívül meggyőző üzenetek létrehozását több nyelven, célzottan egy adott személyre vagy szervezetre szabva. Ezek az üzenetek a közösségi médiából vagy más nyilvánosan elérhető forrásokból származó kontextuális információkat is felhasználhatnak, növelve hitelességüket és hatékonyságukat.
Hasonló módon a generatív MI-eszközök képesek rosszindulatú szoftverek létrehozására is. A modern nagy nyelvi modellek futtatható kódot generálhatnak, beleértve olyan szkripteket is, amelyek rendszerek feltörésére vagy adatok kiszivárogtatására szolgálnak. Bár a jelentősebb MI-fejlesztők biztonsági szűrőkkel próbálják korlátozni az ilyen felhasználást, a támadók gyakran megkerülik ezeket a korlátozásokat.
A deepfake technológiák szintén jelentős fenyegetést jelentenek. Az MI által generált hang- és videófelvételek képesek nagy pontossággal utánozni valós személyeket, ami kifinomult társadalmi manipulációs támadásokhoz vezethet. Vállalati vezetők vagy kormányzati tisztviselők megszemélyesítésével például csalárd pénzügyi tranzakciókat engedélyeztethetnek vagy bizalmas információkat szerezhetnek meg.
Ezek a fejlemények azt mutatják, hogy a mesterséges intelligencia erősítő tényezőként (force multiplier) működik a kiberbűnözésben. Csökkenti a belépési küszöböt, és lehetővé teszi, hogy viszonylag kevés tapasztalattal rendelkező szereplők is komplex kiberműveleteket hajtsanak végre.
Ellenséges gépi tanulás (Adversarial Machine Learning)
Az MI nemcsak eszköz a kibertámadásokhoz, hanem maga is célpont lehet.
Az úgynevezett ellenséges gépi tanulás (adversarial machine learning) során a támadók manipulálják az MI-rendszerek bemeneti adatait annak érdekében, hogy hibás kimeneteket idézzenek elő. Például egy rosszindulatúan módosított kép hibás értelmezést eredményezhet egy számítógépes látásrendszerben.
A kiberbiztonság területén az ilyen technikák képesek megtéveszteni a behatolásérzékelő rendszereket vagy kijátszani az automatizált malware-szűrőket.
Egy másik támadási forma az adatmérgezés (data poisoning), amely során a támadók manipulálják a tanítóadatokat annak érdekében, hogy rontsák az MI-modellek megbízhatóságát. Ha a támadók hozzáférnek a tanítóadatokhoz, félrevezető példákat helyezhetnek el bennük, ami a modell viselkedésének torzulását okozhatja.
További fenyegetést jelent a modell-lopás vagy modell-kivonás (model theft vagy model extraction), amikor a támadók a rendszer válaszait megfigyelve próbálják reprodukálni a tulajdonosi MI-modellt. Mivel a fejlett MI-modellek jelentős gazdasági értékkel rendelkeznek, maguk is a kiberkémkedés célpontjaivá válhatnak.
Ezek a fenyegetések rámutatnak arra, hogy az MI-rendszerek nemcsak a kiberműveletek eszközei, hanem egyben sebezhető eszközök is a digitális infrastruktúrában.
MI-támogatott kártevők (AI-Assisted Malware)
A legújabb kiberbiztonsági kutatások olyan kártevőprogramokat is dokumentáltak, amelyek közvetlenül generatív MI-rendszerekkel kommunikálnak. Az egyik példa a PromptSteal nevű malware-család, amely megmutatja, hogyan képes a rosszindulatú szoftver külső nagy nyelvi modellekhez fordulni működési parancsok generálása érdekében információgyűjtéshez és adatkinyeréshez.
Ebben a forgatókönyvben a kártevő valós időben kommunikál egy külső MI-szolgáltatással, és olyan parancsokat kér, amelyek elősegítik a felderítést és az adatok kinyerését. Az ilyen támadások elmoshatják a határt az autonóm kártevők és az interaktív MI-rendszerek között.
Jogi szempontból ezek a tevékenységek általában a meglévő büntetőjogi rendelkezések hatálya alá tartoznak, amelyek az információs rendszerekhez való jogosulatlan hozzáférést tiltják. Például az információs rendszerek elleni támadásokról szóló EU-irányelv (2013/40/EU) büntetni rendeli az illegális hozzáférést, a rendszerbeavatkozást, valamint a rosszindulatú eszközök előállítását vagy terjesztését.
Az MI alkalmazása azonban új jogi kérdéseket vet fel. Ha a kártevő külső MI-szolgáltatásokat használ parancsok generálására, felmerül a kérdés, hogy az MI-modell szolgáltatója visel-e felelősséget a támadás elősegítéséért. A jelenlegi jogi keretek általában semleges eszközként kezelik az MI-rendszereket, de a jövőbeni szabályozás további kötelezettségeket róhat a szolgáltatókra a visszaélések megelőzése érdekében.
A mesterséges intelligencia mint kiberbiztonsági védelmi eszköz
Miközben a mesterséges intelligencia növeli a kibertámadók képességeit, egyben erősíti a védekezési mechanizmusokat is. A modern kiberbiztonsági stratégiák egyre inkább gépi tanulási rendszerekre támaszkodnak a fenyegetések felismerésében és kezelésében.
MI-alapú fenyegetés-észlelés (AI-Based Threat Detection)
Az MI egyik legfontosabb alkalmazása a rendellenesség-észlelés (anomaly detection). A gépi tanulási algoritmusok képesek elemezni a hálózati forgalom mintázatait, és azonosítani azokat az eltéréseket, amelyek kibertámadásra utalhatnak.
A hagyományos szabályalapú rendszerek gyakran nem képesek felismerni az új típusú támadásokat, különösen az úgynevezett nulladik napi sebezhetőségeket (zero-day vulnerabilities). Az MI-rendszerek ezzel szemben képesek észlelni a normál működéstől való eltéréseket akkor is, ha az adott támadás aláírása még nem ismert.
Például a gépi tanulási modellek észlelhetnek szokatlan bejelentkezési mintázatokat, váratlan adatátviteleket vagy rendellenes kommunikációt az eszközök között. Ezek a jelek automatikus riasztásokat vagy védekező intézkedéseket válthatnak ki.
Az ilyen képességek jelentősen csökkentik a kiberincidensekre adott reakcióidőt. Mivel sok kibertámadás percek vagy órák alatt bontakozik ki, a gyors felismerés kulcsfontosságú a hatékony védekezéshez.
Prediktív kiberbiztonság
Az MI a prediktív védekezés kialakításához is hozzájárulhat. A sebezhetőségi adatok és a szoftverkonfigurációk történeti elemzésével a gépi tanulási modellek képesek azonosítani a potenciális gyenge pontokat még azelőtt, hogy azokat kihasználnák.
Ez a prediktív képesség lehetővé teszi a szervezetek számára, hogy hatékonyabban priorizálják a biztonsági frissítéseket és a védelmi erőforrásokat. Például az MI-vel kiegészített sebezhetőség-vizsgáló eszközök becslést adhatnak arra, hogy egy adott hiba milyen valószínűséggel válik támadási célponttá.
A prediktív kiberbiztonság így a reaktív megközelítésről a proaktív biztonsági stratégiák felé való elmozdulást jelenti.
Automatizált incidenskezelés
Az MI-vezérelt kiberbiztonság másik fontos előnye az automatizáció. A biztonsági műveleti központok gyakran hatalmas mennyiségű riasztással és naplóadattal szembesülnek. Az MI-rendszerek képesek ezeket az adatokat szűrni, az incidenseket osztályozni és automatizált válaszokat indítani.
Ilyen intézkedések például:
- kompromittált eszközök automatikus izolálása
- a tűzfalak dinamikus újrakonfigurálása
- gyanús hálózati forgalom blokkolása
Az automatizáció csökkenti az emberi elemzők terhelését, és gyorsabbá teszi a kiberincidensek elhárítását.
Ugyanakkor az automatizált rendszerek alkalmazása új kockázatokat is hordoz. Ha az MI-alapú védelmi rendszereket manipulálják vagy hibásan működnek, zavarhatják a legitim működést vagy figyelmen kívül hagyhatják a valódi fenyegetéseket. Ezért az emberi felügyelet továbbra is a kiberbiztonsági irányítás fontos eleme marad.
Nyitókép forrása: vska / depositphotos.com




