Mi a baj az EU mesterséges intelligencia rendeletével? Miért lehet problémás a végrehajtása?
Az AI valóban kockázatalapú szabályozása – Az EU mesterséges intelligencia rendeletének (AI Act) végrehajtása. E címet viselte az az előadás, amelyet Martin Ebers jogász professzor tartott szeptember 6-án a John Lukacs Társalgóban. Az NKE Információs Társadalom Kutatóintézetének (ITKI) szervezésében megrendezett program vendége, Ebers professzor a Robotics & AI Law Society (RAILS) németországi elnöke, a Tartu-i Egyetem IT jog professzora, az európai AI szabályozás egyik legismertebb szakértője, a LegalTech folyóirat alapítója és főszerkesztője, valamint a Cambridge Forum on AI: Law and Governance alapítója és szerkesztője.
A szakértő az Európai Unió (EU) nemrég elfogadott Mesterséges Intelligencia Rendelete (EU AI Act) és a rendelet által képviselt kockázatalapú megközelítés legfontosabb kérdéseiről tartott előadást. Egyebek mellett arra kereste a választ, hogy mit jelent az említett megközelítés, az AI Act valóban ilyen szemléletmódot alkalmaz-e, milyen gyakorlati következményekkel jár a jogszabály betartása, és miképpen lesz betartható a GPAIM-ok (generatív AI) esetén.
Neuralgikus pontok
A rendelet azt állítja, hogy kockázatalapú megközelítésen alapul – mégpedig annak érdekében, hogy elkerülje a túlzott szabályozást és tiszteletben tartsa a jogalkotói arányosság elvét. Ám nem ez az egyetlen, feltétlenül helyes megközelítés az AI szabályozásában – figyelmeztetett a professzor. Annál is inkább, mert – ellentétben az Európai Bizottság és a társjogalkotók állításaival – az AI Act fontos rendelkezései nem követik a valóban kockázatalapú megközelítést, és Martin Ebers szerint ennek számos bizonyítéka van.
Az egyik ilyen a kockázat-haszon elemzés hiánya. A szakember vélekedése szerint az AI Act nem veszi figyelembe az mesterséges intelligencia rendszerek lehetséges előnyeit – például a tudományos felfedezések elősegítését –, és elsősorban a kockázatokra összpontosít. Gondot jelent az is, hogy a rendelet csak korlátozott mértékben támaszkodik empirikus bizonyítékokra és igazolható kritériumokon sem alapul, sokkal inkább politikai kompromisszum eredménye.
Az előre meghatározott kockázati kategóriák révén pedig az AI Act nem eseti alapon határozza meg a rizikókat. Ehelyett egy előre meghatározott listát használ, márpedig ez túlszabályozáshoz vezethet: előfordulhat például, hogy egy AI rendszer az AI Act III. mellékletében felsorolt kategóriák egyikébe tartozik, de ténylegesen nem jelent komoly kockázatot.
Martin Ebers szerint túl széleskörű az AI meghatározása is. Az AI Act ugyanis nemcsak a gépi tanulásra, hanem logikai és tudásalapú megközelítésekre is vonatkozik. Ezáltal olyan, a magaskockázatú szektorokban használt szoftverrendszerek is a legmagasabb követelmények alá esnek, amelyek biztonságosabbak és könnyebben kontrollálhatók, mint a gépi tanulás alapú kiszámíthatatlan rendszerek. További nehézséget jelent az is, hogy minthogy az AI Act a meglévő uniós jogszabályok mellett alkalmazandó, előfordulhat, hogy ugyanaz az AI rendszer több hatóság felügyelete alá is tartozik, ami megnöveli a jogi bizonytalanságot és a kapcsolódó költségeket.
Megoldási javaslatok
A kritikus pontok számbavétele után az előadó ajánlásokat fogalmazott meg a jogszabály végrehajtására vonatkozóan. Az Európai Bizottságnak, vetette fel, jogában áll módosítani, megváltoztatni vagy eltávolítani a magas kockázatú AI rendszerek felhasználási eseteit, és módosíthatja a meglévő feltételeket vagy hozzáadhat újakat, amelyek alapján az erről szóló III. melléklet szerinti magas kockázatú AI rendszereket nem tekintik ilyeneknek. Ennek során a Bizottságnak mérlegelnie kell az AI rendszerek gazdasági és társadalmi előnyeit a kockázatokkal szemben, megfelelő empirikus bizonyítékok alapján.
Az általános célú AI modellek (GPAI) kapcsán az hangzott el, hogy az Európai Bizottságnak lehetősége van módosítani e modellek „rendszerszintű” kockázatként való besorolásának küszöbértékeit, meghatározni és definiálni a rendszerszintű kockázati küszöböt új mérőszámok hozzáadásával vagy azok helyettesítésével. Ezenkívül kulcsfontosságú lesz, hogy a gyakorlati kódexek világosan meghatározzák, mely rendszerszintű kockázatokat kell a GPAI modell szolgáltatóknak értékelniük és mérsékelniük.
Túlzottan széles AI definíció kapcsán az előadó azt vetette fel, hogy a megfelelő kockázatalapú végrehajtás mérsékelheti az AI túlzottan széles definícióját is, mivel az AI törvény 8–15. cikkének számos követelménye elég tág megfogalmazású ahhoz, hogy olyan módon alkalmazható legyen, amely figyelembe veszi, hogy az AI rendszerek különböző szintű autonómiájuk és alkalmazkodóképességük miatt eltérő kockázatot jelentenek.
Kettős szabályozási terhek és a végrehajtási struktúrák átfedésének elkerülése érdekében pedig a Bizottságnak elemzést kell végeznie, és kutatás alapján iránymutatásokat kellene kidolgozni, hogy tisztázzák az AI törvény és más uniós jogszabályok közötti kapcsolatot, valamint azt, hogy egy adott kormányzati szerv vezető hatóság-e.
A jogalkotónak továbbá felül kell vizsgálnia az ágazatspecifikus uniós jogszabályokat a szabályozási átfedések tisztázása, a fogalommeghatározások és kockázatértékelési eljárások egyszerűsítése, valamint annak tisztázása érdekében, hogy melyik kormányzati szerv az illetékes vezető hatóság, és hogyan kell együttműködniük a különböző szerveknek.
A brüsszeli hatás
A világ számos országaiban figyelik a törvényhozók az AI törvény kapcsán követett uniós gyakorlatot, s mérlegeli, kövessék-e azt. Ez az úgynevezett (de iure) „brüsszeli hatás”. A professzor úgy véli, nem lesz e rendelet számottevő hatással más országokra, de az említett hiányosságok okán ez nem is lenne kívánatos. Azért sem valószínű a rendelet átvétele, mert az nem egyetlen szakpolitikai problémát kezel (ellentétben a GDPR-ral), hanem inkább lazán kapcsolódó problémák sorát. Emellett nincs nemzetközi konszenzus arról, hogy kit és mit kellene szabályozni, illetve hogyan, s a törvény nem hoz létre átfogó jogi keretet, amely változtatás nélkül átvehető, hanem nagyon összetett módon kapcsolódik az uniós jogszabályok meglehetősen kifinomult rendszeréhez.
A „brüsszeli hatás” azért sem kívánatos, mert az AI különböző országokat és polgárokat különböző módon érint, az AI-specifikus szabályozás pedig még korai szakaszban van, és nem világos, hogy milyen társadalmi és gazdasági következményei lesznek e törvénynek. Más államok „kísérletezése” pedig hasznos lehet azáltal, hogy ösztönzi a szabályozás és innovációját próbálkozás és tévedés útján.
Nyitókép forrása: MI által generált fotó