Jogi, etikai vagy technikai szabályok?
Korábbi blogbejegyzésemben, amelyben az egyre szaporodó mesterséges intelligencia etikai kódexek hiábavalóságát részleteztem, egyúttal ígéretet tettem, hogy ezeknek a dokumentumoknak a homályos megfogalmazású, általános elvei helyett néhány konkrét és kézzelfogható javaslatot teszek a mesterséges intelligencia szabályozására. Ez a harmadik blogbejegyzés arról a problémáról szól, hogy milyen típusú szabályokkal kellene, lenne célszerű az MI-t „kordában tartani”.
A kérdés nemcsak úgy vetődik fel, hogy a jogi szabályok mellett van-e értelme az etikai szabályoknak, hanem úgy is, hogy milyen szerepe legyen az ún. technikai-technológiai szabályoknak, és ezen belül is a különböző szabványoknak az MI „féken tartásában”, illetve, hogy mi legyen a három szabályrendszer helyes „keverési aránya”.
Először is érdemes tisztázni, hogy etikai elvekre nagyonis szükség van, csak nem etikai kódexek formájában. Az etikai elvek szerepe nem lehet más, mint általában az alapelveknek az egyes jogterületeken: egyrészt irányt adnak a szabályozásnak, megalapozzák a konkrét szabályokat, azok konfliktusa esetén a feloldáshoz nyújtanak segítséget, a bíróságot mérlegelési kategóriák esetén orientálhatják és így tovább. Ugyanakkor az etikai elvek olyan absztrakciós szinten mozognak, hogy önmagukban, jól megfogható konkrét jogi és technológiai szabályok nélkül semmit nem érnek. A másik probléma pedig, amelyre már korábbi bejegyzésemben utaltam és külön bejegyzést is szentelek neki, az, hogy bizonyos elveknek csak bizonyos MI típusok és ágazatok, területek esetén van értelme. Egy államigazgatásban működő automata vagy MI esetén például az elmagyarázhatóság nagyon fontos elv, hiszen ezek a rendszerek jogszabályokat alkalmaznak egy konkrét esetre, ahol el kell mondani, hogy egy adott tényállásra miért éppen az a szabály vonatkozik. Egy hitelbírálati szoftver esetében azonban már az is kérdés, hogy vajon a banknak egyáltalán kell-e indokolnia elutasító vagy pozitív döntését, hiszen a nem AI-ra alapozott döntést nem kell, (persze egyesek szerint ennek is meg kell változnia), és ha igen, akkor milyen mélységig. Ugyanígy, egy orvosdiagnosztikai MI, amely mára bizonyos területeken ugyanolyan pontos diagnózist ad, mint egy ember, egyszerűen nem fogja tudni egy hétköznapi ember nyelvén elmagyarázni, miért jutott épp arra a következtetésre. És nem is biztos, hogy erre szükség van. És így tovább. Tehát már a magas szintű elvek esetén sem igaz, hogy minden ágazatban minden MI algoritmusra alkalmazni kéne.
Ami a jogszabályi szintet illeti, az MI-t szabályozó jogszabályokra a legtöbben úgy gondolnak, mint valamiféle teljesen újfajta „robottörvényekre”. Holott a legvalószínűbb, hogy az MI-t szabályozó jogi normák nagyon fognak hasonlítani a már most is létező megfelelési (compliance) szabályokhoz. Ez az EU Bizottsági dokumentum például, amelyet még fogok idézni a következő blogbejegyzéseimben, már elkezdte azt az aprómunkát, amely a jelenlegi szabályok alkalmazhatóságát szisztematikusan vizsgálja és meglepően sok jelenlegi szabályt alkalmazhatónak tart. De erre jó példa a pénzügyi befektetési portfóliókezelő-szoftverek, a „robot-tanácsadók” esete is. Amikor a 2010-es évek elején ezek a portfóliókezelő-szoftverek megjelentek, a szabályozó hatóságokon szemmel láthatóan idegesség lett úrrá. Aztán kiderült, hogy a pénzügyi befektetésekre vonatkozó fogyasztóvédelmi szabályok többségét (pl. a tájékoztatási kötelezettségre, vagy az ügyfél érdekében történő eljárásra vonatkozókat) különösebb gondok nélkül lehet alkalmazni a szoftverekre, illetve ezek kimeneteire (döntéseire, ajánlásaira), illetve felhasználói felületeire is, jóllehet olyankor a szabályok némi átértelmezésére szükség lehet. Például arra a szabályra, hogy az ügyfelek tájékoztatását a kockázatokról dokumentálni kell. Ha a szoftverben az ügyfél elolvassa a kockázatfeltáró nyilatkozatokat, akkor itt elég lesz egy kattintás, nem szükséges papíron vagy hangfelvétellel dokumentálni a megtörténtét. Ugyanígy: a kockázattűrő képességet egy online rendszernél sokkal változatosabban lehet felmérni, például véletlenszerűen generált szituációk, kérdések, vagy akár játékos feladatok formájában. Az is igaz ugyanakkor, hogy más szabályokat, (pl. a pénzügyi vállalkozások személyi és tárgyi megfelelési feltételeit részletezőket) csakugyan nem lehet a ”robot-tanácsadókra” alkalmazni.
Az igazi kérdés az, hogy technikai-technológiai szabályoknak mekkora tere lesz az MI kordában tartásában. Az én meglátásom szerint igen nagy. A jogászok – és általában a szabályozók – azért nem szeretik a technikai sztenderdeket, mert ezek rendszerint kötődnek valamilyen konkrét technológiához (pl. a jelenlegi MI-k nagy része neurális háló alapú mélytanulásos rendszer), és ha ezek a technológiák a technikai fejlődés miatt megváltoznak, akkor változtatni kell a szabályokon is. Ugyanakkor azt kell látni, hogy bármilyen jogi szabályt alkotunk, azt le kell fordítani a technológia nyelvére, és ez a fordítás nem triviális és adott esetben nagyon nagy tétje lehet. A gépjárművek műszaki követelményei sem csak annyit tartalmaznak, hogy az autónak „biztonságosnak” kell lennie, hanem adott esetben egy elég részletes jogszabály rendelkezik az autók műszaki vizsgájáról. Épp ezért az egyes ágazatokban működő MI-k területén ugyanúgy ki fognak majd alakulni azok a technikai minimumsztenderdek, mint amelyek más műszaki területeken kialakultak. És ezeket a sztenderdeket meg lehet úgy fogalmazni, hogy az egyes konkrét technológiák miatt ne kelljen állandóan hozzájuk nyúlni. Az is nagyon valószínű, hogy a korábbi bejegyzéseimben említett kockázati kategóriákban egyre részletesebb technikai normák lesznek jellemzők, sőt a legmagasabb besorolásúakban előzetes engedélyeztetés, és rendszeres audit (átvizsgálás) és/vagy önellenőrzés és ennek dokumentálása lesz kötelezővé téve, amelyet az egyes ágazati felügyeleti szervek tartatnak majd be.