Vita a generatív mesterséges intelligenciákról
Az EU belső ügyeivel foglalkozó portálok már október végétől kezdődően folyamatosan tudósítottak arról, hogy valami komoly zavar támadt a Mesterséges Intelligencia Jogszabály (AI Act) tervezete körül. Lehet, hogy mégsem lesz decemberre politikai kompromisszum? Ebben a blogbejegyzésben szeretném egyrészt elmagyarázni, hogy mi okozza a zavart, másrészt saját véleményemet is elmondani ezzel kapcsolatban.
A jelen sorok írásakor az Európai Parlament, a Bizottság és a Tanács épp az ún. trialógusokat folytatja a Mesterséges Intelligencia Jogszabály (Artificial Intelligence Act) szövegéről. Az Euractiv portál szerint az Európai Parlament és a Bizottság közt eddig is folyamatos vita volt, például az AI Act úgynevezett tiltott és magas kockázatú mesterséges intelligencia gyakorlatai miatt, de most a vita egy sokkal nehezebben megoldható kérdés körül robbant ki. Előbb a kisebb jelentőségű, bár szintén komoly filozófiai mélységekbe vezető problémát magyarázom el.
Arról van szó, hogy míg a Parlament újabb és újabb alkalmazásokat szeretne betiltani vagy magas kockázatúvá minősíteni, és a politikusok túlnyomó többsége is inkább alarmista, sőt „doomista” (a “doomism” kifejezés – kb. „végítéletvárás” – a klímaválsággal kapcsolatban született, de újabban a mesterséges intelligenciával kapcsolatban is használják), addig a Bizottság – sokszor különböző iparágak nyomására is – igyekszik ezek körét jóval szűkebben tartani. Jellemző történések az elmúlt időszakból, hogy míg az Európai Adatvédelmi Felügyelő (European Data Protection Supervisor – EDPS) az AI Act-ről született véleményében a szöveghez képest is további szigorításokat sürget, az európai MI ipar 150 képviselője a szabályozás újragondolását kéri egy nyílt levélben, iparági elemzők az európai szabályozás túlzott szigoráról beszélnek, egyes cégek pedig még az Európából történő kivonulást is fontolóra veszik.
Mindez persze, mondhatnánk „business as usual”. Az üzleti szféra nyafog, szeretne minél nagyobb mozgásteret és profitot, a jogalkotó pedig képviseli a közérdeket, megfékezi a profitéhes cégeket és megvédi az állampolgárait a veszélyektől. A kutya ugat, a karaván halad.
Jelen sorok írásakor ugyanakkor egy sokkal mélyebbre hatoló probléma ejtette foglyul az európai jogalkotókat, a ChatGPT problémája. Kiderült ugyanis, hogy a Parlament által a nyáron a ChatGPT-re válaszul beterjesztett, és az ún. alapmodellekre (a Chat GPT és a képgeneráló MI-k alapjául szolgáló hatalmas adatbázisokra és szoftverekre) vonatkozó szabályozást a legnagyobb EU tagállamok nem akarják elfogadni, így a vágyott és év végére tervezett politikai kompromisszum esélye is jócskán kisebb lett. Miről van szó?
Még október 24-én is úgy tűnt, hogy bár vannak ellentétek, de a legfontosabb dolgokban az EU-s intézmények egyetértenek. November 10-én váratlanul egy technikai találkozó teljes kudarcba fulladt. A generatív MI-k kapcsán ugyanis a tervezet azt a megközelítést alkalmazta, hogy az ezekre épülő alkalmazásokra kiterjesztette volna AI Act teljes szigorát, ugyanakkor a modellekre csak egy „lépcsőzetes” kötelezettségrendszert fektetett volna le, amelyben csak a legnagyobb (hatású, felhasználószámú) modelleket működtető szolgáltatókat terhelte volna meg kötelezettségekkel. Ez már eleve nem tetszett néhány tagállamnak, a november 10-i tárgyalások emiatt fulladtak kudarcba. Most azonban a Politico adta hírül hogy a helyzet még tovább bonyolódott (nehezedett), mert a három nagy EU-s ország (Franciaország, Németország és Olaszország) azt az álláspontot vette fel, hogy magukat a modelleket (még a legnagyobbakat se) egyáltalán ne szabályozzák kemény jogi eszközökkel (előzetes megfelelési kötelezettségekkel), azokra csak önként vállalt, vállalati belső szabályzatokat (önszabályozást) írjanak elő. Egy kiszivárogtatott dokumentum szerint ezek az országok attól félnek, hogy ha megmaradnak ezek a szigorú szabályok akárcsak a legnagyobb méretű alapmodellekre is, akkor Európa versenyhátrányba kerül, ahogy ezt ma szokták mondani, „lábon lövi magát”, esélye sem lesz felvenni a versenyt a nagy amerikai modellekkel. Hiszen az amerikai modelleket már azelőtt elkészítették és piacra dobták, hogy a szabályozás megszületett volna, az európaiakat meg még csak most fejlesztik. Európa, miközben az amerikai modellekkel már jószerével semmit nem tud kezdeni, saját magát kalodába zárja.
Ez persze csak az érem egyik oldala. A másik az, hogy amennyiben a szabályozás tényleg nem fog kiterjedni az alapmodellekre, az azt a furcsa helyzetet fogja eredményezni, hogy miközben van egy több száz oldalas szigorú szabályozásunk egy sor veszélytelen vagy marginális MI-re, a legfontosabb, legnagyobb, legszélesebb körben használtakra nincsen. (Ez az érvelése Yoshua Bengio kanadai MI gurunak is.) Az ugyanis, hogy csak a modellekre épülő alkalmazásokkal szemben támasztunk követelményeket, egyszerűen nem működik. Ha valaki a ChatGPT-re, a Bard-ra vagy a Llama-ra építve fejleszt ki egy konkrét szoftvert, appot, nem tudja, hogy az alapul szolgáló modell pontosan hogy működik, így nem fogja tudni ezt dokumentálni sem. Tehát valahogy mégiscsak a modelleket kellene szabályozni.
Lássuk be, ez egy nagyon nehezen feloldható dilemma. Nemcsak az „innovációt elősegítő, versenyképességet fokozó környezet” kontra „minden lehetséges kockázatot kezelni akaró szabályozás” dilemmájáról szól ez, hanem a Collingringe dilemmáról is: az európai jogalkotó úgy szeretne minden kockázatot kezelni, hogy a technológia naponta változik, vet fel újabb és újabb kérdéseket, generál új potenciális veszélyeket, amelyeket egyszerűen lehetetlen előre látni. Egy gyorsan mozgó célpontra lövöldözik.
Jómagam természetesen nem tudom a megoldást a problémára, legfeljebb ötleteim vannak. A legjobb talán még az lenne, ha az új, generatív MI-k alapjául szolgáló modellek szabályozását egyelőre egyszerűen kivennék az AI Act-ből, és a maradékot (nagyjából az eredeti szöveget) elfogadnák az európai jogalkotók. Így szertefoszlana ugyan a „világon első és egyedülálló” „horizontális, az MI-t átfogóan szabályozó nagy kódex”, és az „Európa mint a jogalkotásban élenjáró és mintaadó” délibábos ábrándja, de lehet, hogy lenne egy elfogadott és használható jogszabályunk. Az alapmodellek esetén pedig lehetne várni egy kicsit, hogy merre is alakulnak az események.