Általános robotjog, vagy ágazati szabályozás?
Ennek a sorozatnak a nyitó blogbejegyzésében, amelyben az egyre szaporodó mesterséges intelligencia etikai kódexek hiábavalóságát részleteztem, egyúttal ígéretet tettem, hogy ezek helyett néhány konkrét és kézzelfogható javaslatot teszek a mesterséges intelligencia szabályozására. Az első blogbejegyzés az MI definíciós javaslatát tartalmazta. A második arról szólt, hogy kik legyenek az MI szabályozás címzettjei. A harmadik azt taglalta, hogy a jogi, az etikai és a technikai szabályok milyen keverékét érdemes alkalmazni az MI „fékentartására”. Ez a negyedik blogbejegyzés pedig arról a problémáról szól, hogy érdemes-e általános „robotjogi”, vagy „MI-törvénykönyvet” alkotni.
Amikor a 2000-es évek közepén az MI elkezdett népszerű téma lenni, a világban több ország is robottörvényeket kezdett el írni. Ezek közül a legnagyobb port a dél-koreai robotkódex verte, amelyet már 2007-re ígértek elkészíteni, és végül 2008-ban fogadták el, (és azóta már több mint tizenkétszer módosították.) A törvény azonban a közvélekedéssel ellentétben nem az MI-vel és a robotikával kapcsolatos kockázatokat próbálja meg kezelni, hanem – ahogy ez a címéből is világosan kitűnik – a robotok előállítását és elterjedését igyekezett elősegíteni pénzügyi programokkal, szervezetek felállításával, kormányzati felelősök kijelölésével. Olyan általános „robottörvények”, amelyekre a közvélemény e szó hallatán asszociál, azóta sem születtek tudomásom szerint egyetlen országban sem. Ehelyett azonban minden ország elkészítette az MI-vel kapcsolatos Etikai kódexét.
Ez a helyzet elég jól mutatja, hogy mi a válasz a címben feltett kérdésre: általános robottörvényt nem érdemes alkotni. Egyrészt azért, mert amit általában a robotokról és az MI-ről lehet mondani, az valóban vagy magas szintű etikai elvárás, vagy az, hogy hogyan lehet ezt az iparágat mindenféle ösztönzőkkel, kormányzati programokkal serkenteni. Az MI-t és a robotikát facilitáló jogi szabályok azonban nem „robottörvények”, hanem inkább az állam által kiemeltnek tekintett célok elősegítésére szolgáló jogi normákhoz hasonlítanak: szervezeteket, pénzalapokat állítanak fel, felelősöket jelölnek ki, stb.
Az általános robottörvények ellen még két érvet lehet felhozni.
Először is, az etikai kódexekben található szabályok nagyon hasonlítanak azokra, amelyeket az alkotmányok alapjogi részében találhatunk. Ha ezeket mindenképpen érvényesíteni akarjuk, meg lehetne fontolni, hogy bizonyos alapvető etikai elvek ne kerüljenek-e bele magába az alkotmányba. Például a diszkriminációtilalom (Alaptörvény XV. cikk) kiterjeszthető lenne a gépi diszkriminációra, vagy a tisztességes bírósági és hatósági eljárás követelménye (XXIV. és XXVIII. cikk) a gépi támogatással, vagy teljesen gépi úton zajló eljárásokra is. (És ezzel a beemeléssel az etikai kódexek valódi hatást gyakorolhatnának, értelmet nyerhetnének.)
Másrészt, olyan általános szabályok valójában ma is léteznek, amelyek a kérdést rendezik, mégpedig az automatizált döntéshozatal szabályai formájában, az adatvédelmi jogban. (GDPR 4. cikk 4. pontja és a 22. cikk, valamint Infotv. 6. §) A rendelkezések az etikai kódexekben foglalt követelmények közül a diszkriminációtilalmat és a megmagyarázhatóság követelményét tartalmazzák.
Nagy szükség lenne viszont arra, hogy az egyes ágazatokban elinduljon a már létező MI alapú alkalmazások, és ezek kockázatainak felmérése, majd az MI-re vonatkozó ágazati részletszabályok kidolgozása. Teljesen nyilvánvaló, hogy egy önvezető autó, egy robot-tanácsadó, egy ügyfélszolgálati chatbot, vagy egy orvosdiagnosztikai MI teljesen más típusú problémákat vet fel, akár a felelősség, akár más megfelelési szabályok tekintetében. Ráadásul egy-egy ágazaton belül is lehetnek különböző kockázati besorolásba tartozó alkalmazások. Egy vállalati chatbotban rejlő kockázat teljesen más, ha az ügyfél egy új termék iránt érdeklődik, számlapanaszt igyekszik intézni, vagy épp egy szerződést köt. Ebben a blogbejegyzésben nem tudok minden területre kitérni, csak néhány példát említek. Nézzük mondjuk az önvezető autók, és a közigazgatásban potenciálisan megjelenő ügyintéző MI-ket, mint két szélső példát. Míg az előbbinél a gyors működés, a hibátlan adatátvitel, az adatok megosztása más eszközökkel igen fontos, az átlátható működés és a megmagyarázhatóság legfeljebb másodlagos szempont. A közigazgatási, vagy bírói döntéseket támogató MI-nél viszont éppen ez utóbbi két kritérium a legfontosabb, és mondjuk az adatmegosztás egyenesen tiltott lehet. Ugyanígy: a teljes átláthatóságot nem lehet elvárni, (és abszurd is lenne), mondjuk a Facebook terrorista tartalmak ellen „harcoló” algoritmusa esetén, hiszen ez egyfelől a cég üzleti titka, másfelől igen kontraproduktív lenne, ha éppen azok a rosszhiszemű felhasználók ismerhetnék meg a működését, akik ellen harcolni akar.
De az általános elvek különbözőféleképp történő érvényesülésénél talán még fontosabb azoknak a teljesen szektorspecifikus kockázatoknak a kezelése és (megfelelési) elvárásoknak az érvényesítése, amelyek MI-től függetlenül, jelenleg is az adott szektor szabályozásának fontos részei. A sokszor emlegetett robot tanácsadók ismét jó példa lehet erre: ezeknek a szoftvereknek ugyanúgy be kell tartani a pénzügyi fogyasztóvédelem szabályait (pl. az ügyfél megfelelő tájékoztatása, kockázatfelmérés), mint egy pénzügyi közvetítőnél dolgozó értékesítőnek. Legfeljebb egy kicsit másféle formában. (Például a kockázatfelmérés az online felületen történhet akár egy játékhoz hasonlóan prezentált szimulált befektetés lefuttatása formájában, és nem kell a hagyományos feleletválasztós űrlapot használni.) Erről majd a következő, utolsó blogbejegyzésem fog szólni.