A mesterséges intelligencia európai, de talán azt is mondhatjuk, világszintű szabályozásának folyamata fontos mérföldkőhöz érkezett. Elkészült az európai Mesterséges Intelligencia Kódex (Artificial Intelligence Act) tervezete.
Ebben a rövid blogbejegyzésben csak a legfontosabb elemeket ismertetjük, de később még bizonyára más bejegyzésekben is kitérünk a részletekre.
Az elnevezésről
Egyelőre nem ismert, hogy hogyan fogják az Act szót fordítani. Nagyon valószínűtlen, hogy a kézenfekvő „törvény” kifejezéssel. A cikk szerzője a „kódex” szócskát találta a legtalálóbbnak, mivel a dokumentum kiemelt jellegét jól hangsúlyozza.
A mesterséges intelligencia néhány éve az EU érdeklődésének centrumában van. A témakör először az “adatgazdaság“, majd a robotika kontextusában merült fel, a 2010-es évek közepén, általában olyan felhanggal, hogy az EU lemaradásban van a világ többi részéhez képest, és ezt a lemaradást az egységes piac még hatékonyabb működésének elősegítésével, a gátak, korlátok lebontásával, kutatás-fejlesztéssel és más eszközökkel kell ösztönözni.
Az EU attitűdje az MI-vel kapcsolatban 2018 környékén kezdett megváltozni, és az egységes piac, gazdaságösztönzés, versenyképesség kulcsszavakat a kockázat, emberi jogok, etika kifejezések váltották fel. Az egységes MI szabályozás igénye nagy hangsúlyt kapott az Európai Bizottság elnökének, Ursula von der Leyennek programjában is, ahol már artikulálódik az a dilemma is, hogy az MI fejlesztése és ösztönzése egyensúlyban kell legyen a kockázatok kezelésével és az etikai megfontolásokkal.
Ebben az összefüggésrendszerben érdemes vizsgálni az MI kódexet, amelynek egyelőre csak az anyagi jogi rendelkezéseit mutatjuk be (érdemes azonban megemlíteni, hogy a tervezet igen részletes eljárási és szervezetstatuáló rendelkezéseket is tartalmaz, amelyek egyébként terjedelemre nagyobb részt tesznek ki az anyagi jogi szabályoknál).
A kódex a horizontális, (értsd: mindenféle területen, mindenféle MI-re vonatkozó) szabályozás minimumát célozza meg, méghozzá oly módon, hogy az MI-ket kockázati osztályokba sorolja.
A tervezet megkülönböztet teljesen tiltott MI-alkalmazásokat, kockázatos MI-alkalmazásokat, amelyekre kötelező szabályokat alkot, – ezek teszik ki a normaszöveg anyagi jogi részének legnagyobb hányadát -, és kevésbé kockázatos, de valamilyen szempontból még mindig kiemelt figyelmet érdemlő egyéb alkalmazásokat, ahol csak néhány, viszonylag könnyen betartható szabállyal operál, végül semelyik kategóriába nem eső MI-alkalmazásokat, amelyek „fékentartását” magatartási kódexekre, lényegében tehát önszabályozó mechanizmusokra bízza.
Az MI-t a tervezet három konjunktív feltétellel definiálja: az MI a mellékletekben található, valamelyik technológiát használó (gépi tanulást, logikai-, vagy tudásbázis alapú – szabályalapú – technológiát, vagy statisztikai becslést alkalmazó), egy ember által definiált célrendszert figyelembe véve működő rendszer, amelynek kimeneti oldalán (példálózó jelleggel) az alábbiaknak kell megjelenni: tartalom, előrejelzés, ajánlás, döntés. Mindezek az outputok „befolyásolják a környezetet, amellyel kapcsolatban vannak”.
A tervezet, ahogy fentebb említettem, négy MI kategóriát állít fel. Az első kategória a tiltott MI-k kategóriája. Ezek az alábbiak:
- tudatalatti manipulálásra képes MI-k;
- bizonyos sérülékenységeket (például fogyatékosságot) kihasználó MI-k;
- társadalmi pontozást megvalósító MI-k;
- arcfelismerést közterületen végző MI-k.
Igen érdekes a magas kockázatú MI-k szabályozása. Magas kockázatúnak akkor minősül egy MI, ha vagy biztonsági komponense egy egyébként is szorosan szabályozott termékcsoportnak (ezeket a II. melléklet sorolja fel a játékoktól a vízi járműveken keresztül az orvosi műszerekig), vagy „saját jogon” képvisel kockázatokat, különösen azért, mert olyan területen tevékenykedik, amely az emberi jogokat érinti.
Ez utóbbi lista nyolc területen kéttucatnyi konkrét alkalmazást sorol fel, olyanokat, mint például a természetes személyek biometrikus azonosítását, kritikus infrastruktúrák (közlekedés, gáz, víz-, villanyellátás) vezérlését végző MI-k, és még néhány, különösen az amerikai szakirodalomból ismert területeken „tevékenykedő” MI (így a munkaerő felvétel, egyetemi felvétel, hitelbírálat és a bírói munkához adott tanácsok területén működő alkalmazások).
A tervezet hét, az MI-hez kötődő etikai kódexekből már jól ismert előírást vagy elvet igyekszik aprópénzre váltani a magas kockázatú MI-k esetén. Ezek a következők.
- A magas kockázatú MI-ket mindig kockázatértékelési rendszerekkel együtt kell működtetni.
- A magas kockázatú MI-ket megfelelő adatmenedzsment (data governance) rendszerekkel együtt kell működtetni. A tanító, validáló és tesztelő adatoknak „tisztának” kell lenni.
- A magas kockázatú MI-khez részletes dokumentációt kell csatolni.
- A magas kockázatú MI-khez az eseményeket naplózó rendszereket kell társítani.
- A magas kockázatú MI-knek átláthatóan kell működniük.
- A magas kockázatú MI-k felett mindig meg kell maradnia az emberi felügyeletnek és beavatkozási lehetőségnek.
- A magas kockázatú MI-knek meg kell felelnie a pontosság, a robosztusság és a kiberbiztonság követelményeinek.
A harmadik kategóriát a tervezet csak igen kurtán említi, ezek azok az MI-k, amelyek valamilyen szempontól még jelentenek ugyan kockázatot, de ezeket néhány átláthatóságot erősítő rendelkezéssel lehet kezelni. Ezeket a szabályokat az 52. cikk tartalmazza: az MI-nek mindig tájékoztatnia kell az embert, hogy MI-vel áll szemben (ez különösen a chatbotok esetén neuralgikus kérdés). Az érzelmek felismerésére képes rendszereknek úgyszintén tájékoztatniuk kell az érintetteket, s végül a deepfake videókat fel kell címkézni, tudatni kell, hogy gépi eszközökkel hamisított mozgóképről van szó. Ez egyúttal azt is jelenti, hogy ezek a kategóriák nem minősülnek önmagukban sem tiltottnak, sem magas kockázatúnak.
Végül az egyéb MI-ket a tervezet ún. szabályozási tesztkörnyezetek, és önként vállalt magatartási kódexek segítségével tervezi „kordában tartani”.
Amit elsőre röviden el lehet mondani a tervezetről, hogy mind a kockázatalapú megközelítés, mind a nem túl szigorú szabályozás rendkívül előremutatónak tűnik, és sok aggodalmat eloszlat. A tiltott listán szereplő MI-kel még bizonyosan lesz értelmezési probléma, és a magas kockázatú MI-k messze nem képeznek homogén csoportot. Különösen azoknál az MI-knél lehet sok vitára számítani, amelyek magáncégeknél fognak működni, és például hitelbírálatot, vagy munkaerő-kiválasztást támogatnak.
A következő blogbejegyzésekben megpróbáljuk a lehető legrészletesebben bemutatni a tervezet rendelkezéseit.