2. rész: Kik legyenek a szabályozás címzettjei?
Egy korábbi blogbejegyzésemben az egyre szaporodó mesterséges intelligencia etikai kódexek hiábavalóságát részleteztem. Egyúttal ígéretet tettem, hogy ezeknek a dokumentumoknak a homályos megfogalmazású, általános elvei helyett néhány konkrét és kézzelfogható javaslatot teszek a mesterséges intelligencia szabályozására. Ezeket a javaslatokat öt téma köré rendeztem, és öt rövid blogbejegyzés formájában bocsátom vitára, invitálva mindazon szakmák képviselőit, akik úgy érzik, hogy van mondanivalójuk a mesterséges intelligencia szabályozásával kapcsolatban. Ez a második blogbejegyzés arról a problémáról szól, hogy ki legyen a jogi szabályozás címzettje.
Mielőtt rátérnék a kérdésre, megemlítem, hogy még áprilisban maga az etikai kódexeket listázó algorithmwatch.org oldal is közzétett egy olyan írást, amelyben „papírtigriseknek” nevezi ezeket az etikai kódexeket, érdemes elolvasni.
A kérdés, hogy a mesterséges intelligenciát célzó jogi szabályozásnak tisztázni kell-e a címzetti körét, furcsának tűnhet, hiszen hajlamosak vagyunk elsőre rávágni, hogy a jogban a legtöbb szabály „mindenkinek” szól. Nehéz lenne vitatkozni például azzal, hogy a büntetőjog szabályait mindenkinek be kell tartania, hiszen mindenkinek tartózkodnia kell bűncselekmények elkövetésétől. Nincs ezen tehát mit gondolkodni: az MI-re vonatkozó szabályoknak „mindenki” a címzettje.
A kérdés mégsem felesleges. Az, hogy a címzetti kört tisztázni kell, szoros kapcsolatban van azzal a problémával, hogy a mesterséges intelligenciát milyen jogág eszközeivel szabályozzuk. A fentebbi példában, a büntetőjog területén fel sem vetődik, hogy az ne vonatkozna kényszerítő erővel mindenkire. Ugyanakkor a magánjog szabályainak többsége ún. diszpozitív szabály, azaz a felek szabad megállapodása felülírhatja azt, vagy még pontosabban a polgári törvénykönyvben foglalt szabályok nagy része akkor lép csak működésbe, ha a felek nem állapodtak meg valamiben. Ha a vita azonban bíróság elé kerül, a bíróság kötelezően alkalmazza az egyébként diszpozitív szabályokat. A közigazgatási jog területén pedig a szabályok általában hasonlóan kötelezőek ugyanúgy, mint a büntetőjogban, de a nem szabályozott területeken az állampolgároknak szabad mozgásterük van: ami nem tilos, azt meg szabad tenni. A szabályok tehát itt is egyszerre kötik az állampolgárt és az állami szervezetet, de míg a szabályok között nyitva hagyott térben az állampolgár és a magánjogi jogalanyok szabadon mozognak, addig az állami szervezetrendszer mozgási szabadságát szigorúan a jogszabályok jelölik ki. A gépjárművek átvizsgálására vonatkozó szabályrendszer például pontosan megmondja, hogy milyen járművet lehet és milyen műszaki feltételekkel átengedni a műszaki vizsgán, és ez köti a vizsgabiztost, mint az állam megbízottját, de amire vonatkozóan ez a szabályrendszer nem mond semmit, azt az állampolgár megteheti a gépjárművével. Például semmi nem tiltja, hogy bólogató kutyát tegyen a hátsó ablakba.
Némileg más a helyzet az alkotmányjogban, illetve ezzel kapcsolatban parázs viták folynak. Az alkotmányjog alapjogi része (tulajdonhoz, vélemény-nyilvánításhoz való jog, stb.) ugyanis a „klasszikus” elképzelés szerint amellett, hogy az állampolgárok számára kinyilvánítja, hogy milyen „szabadságaik” vannak, praktikusan elsősorban az állam számára jelöl ki korlátokat: mik azok a határok, amelyeken nem lehet túlterjeszkedni. És a probléma itt kezdődik. A mesterséges intelligencia etikai kódexei ugyanis – szinte az összes – alapjogi beszédmódban íródtak, („diszkrimináció-tilalom”, „átláthatóság”, „megmagyarázhatóság”, stb.) ahol a védett jogalany továbbra is az állampolgár, a címzett azonban – úgy tűnik – maga a mesterséges intelligencia. „Ő” az, akinek „nem szabad nem, faj, stb. szerint diszkriminálnia”, akinek a döntése „megmagyarázható kell legyen” és így tovább, és ráadásul ezek a kódexek mindezt ugyanúgy imperatív módon írják elő, ahogy az alkotmányjog az állammal „beszél”.
Csakhogy a mesterséges intelligencia nem lehet a szabályozás címzettje, mert a jogi szabályokat egyelőre nem képes megérteni és betartani. A címzett alapvetően a szoftver fejlesztője, annak konkrét üzemeltetője és az lehet, akinek az „érdekében”, azaz hasznára a szoftver működik, aki nagyjából és leegyszerűsítve a tulajdonos. Az első csoport (fejlesztők) esetén technikai sztenderdeket kell(ene) alkotni, amelyek például – az első blogbejegyzésemben leírt – adatkiválasztási, tisztítási és tesztelési módszereket konkretizálják, a konkrét üzemeltetőnek elsősorban a szoftverek működtetésével kapcsolatos szabályokat lehet alkotni (pl. mikor és milyen körülmények közt lehet és mikor nem lehet gépi tanuláson alapuló szoftvert használni, kell-e és hogyan tájékoztatni az érintetteket arról, hogy nem emberi döntéssel fognak találkozni, stb.), a harmadik kör pedig – a haszonhúzók, tulajdonosok – elsősorban a már felmerült károk megtérítése kapcsán jöhet szóba, a polgári jogi kártérítés intézményein keresztül.
Mindez ráadásul érint egy olyan problémát, amely felett nem szabad elsiklani, ez pedig az, amelyet a jogtudomány az alkotmányjogi szabályok „horizontális hatályaként” tárgyal. A fentebbi fejtegetésből egyértelmű, hogy adottnak vesszük, hogy lényegében alkotmányos vagy legalábbis annak tűnő szabályokat akarunk érvényesíteni magánszervezetekkel (fejlesztők, üzemeltetők, haszonhúzók) szemben. Az alkotmányjogi irodalomban parázs viták zajlottak az elmúlt évtizedekben, hogy példának okáért lehet-e a diszkrimináció-tilalmat alkalmazni egy kocsmát üzemeltetőre, (neki is be kell mindenki engedni a magántulajdonába) vagy hogy köteles-e tiszteletben tartani egy pláza a szólásszabadságot (ha valaki mondjuk politikai üzenetet hordozó pólót visel). A válaszok a „nem”-től az óvatos „igen, bizonyos esetekben”-ig terjedtek. A mesterséges intelligenciával kapcsolatban – és megjegyezzük, ez a tendencia már az adatvédelem területén elindult – ez a dilemma mintha nem is létezne. Adottnak vesszük, hogy a „mesterséges intelligenciának” minden alkotmányos szabályt be kell tartania, függetlenül attól, hogy ki üzemelteti, ki a tulajdonosa, és mennyire nagy kockázatot hordoz a működése. Pedig ez egyáltalán nem triviális.
Mindezeket a problémákat véleményem szerint úgy lehetne feloldani, hogy egyrészt célszerű lenne a korábban már emlegetett kockázati osztályokba sorolni gépi tanuláson alapuló rendszereket, másrészt azt a kibővített alapjogi katalógust is, amelyeket a gépi tanulásos rendszerek érintenek, egyfajta mátrixba foglalni. Minél nagyobb kockázatú rendszerről van szó, annál magasabb lenne a követelményszint, amelyet meg kell a rendszernek ugrania, és mindezt még egy előzetes bevizsgálási kötelezettséggel is ki lehetne egészíteni a legmagasabb kockázati szinteken. (Az ISO el is kezdett egy ilyen szabványt kidolgozni.) Másrészt, ezt a kötelezettséget egyszerre kell a rendszereket fejlesztőkre és az üzemeltetőikre is telepíteni. A fejlesztők felelősek, hogy a rendszerek összhangban legyenek a követelményekkel általában, az üzemeltetők felelőssége pedig az, hogy az egyébként a sztenderdeknek megfelelően működő rendszerek csak a kockázati besorolásnak megfelelő helyzetekben és körülmények közt működhessenek. És persze a fentebb említett előzetes engedélyeztetési rendszert egy hatékony ellenőrzési mechanizmussal együtt célszerű az egyes ágazatokban már létező szabályozó hatóságok kezébe adni és nem valamiféle „robotügynökségben”, vagy „MI hatóságban” gondolkodni. (Pénzügyi felügyelet, egészségügyi hatóság, közlekedési felügyelet, stb., amelyek a rendszerek előállítása és működtetése során is szerepet kaphatnak.) De ez már egy újabb blogbejegyzés témája lesz, hiszen összefügg azzal, hogy van-e értelme általános „robotjogról” beszélni.