1. rész: A mesterséges intelligencia (jogi) definíciója
Korábbi blogbejegyzésemben, amelyben a mesterséges intelligenciára vonatkozó, egyre szaporodó etikai kódexek hiábavalóságát részleteztem, egyúttal ígéretet tettem arra, hogy ezeknek a dokumentumoknak a homályos megfogalmazású, általános elvei helyett néhány konkrét és kézzelfogható javaslatot teszek a mesterséges intelligencia szabályozására. A javaslatokat öt téma köré rendeztem, és öt rövid blogbejegyzés formájában bocsátom vitára, invitálva mindazokat a szakmákat, akiknek van mondanivalójuk minderről.
Az öt téma a következő:
- Mi az MI meghatározása?
- Kik legyenek az MI szabályozásának címzettjei?
- Az MI-szabályozás módszere: jogi, etikai, vagy technológiai szabályok?
- Általános vagy ágazati szabályozás? Van-e értelme egy általános MI-törvénynek?
- Mi legyen a meglevő megfelelőségi szabályokkal?
Ez az első blogbejegyzés az MI (jogi) meghatározásának problémájáról szól.
Először is: egyáltalán nem triviális, hogy szükség lenne a jogban az MI valamiféle definíciójára. Ezzel kapcsolatban érdemes felidézni Cassie Kozyrkov, a Google döntéstudományi főnöke tavaly megjelent írását, amely helyesen mutat rá, hogy a legtöbb etikai kockázat, amelyet az ismert etikai kódexek az MI-vel kapcsolatban emlegetnek, valójában nem is MI-specifikus. Bármelyik etikai kódex bármelyik pontján kicserélhetjük az MI szót „technológiára”, értelmes kijelentést kapunk. Akkor hát nem is lenne szükség egyáltalán arra, hogy az MI-t megkülönböztessük a technológiától általában? Az általános technológiaszabályozás (amely jellemzően az emberek biztonságát igyekszik garantálni), elegendő lenne? A helyzet nem ilyen egyszerű.
Kozyrkov szerint az MI specifikusan veszélyes voltát ugyanis elsősorban az adja, hogy a végső termék nem sorról-sorra történő kódolással születik, hanem úgy, hogy a programozó példákat (adatállományokat) mutat a gépnek, amelynek nyomán azután létrejön – például egy neurális háló neuronjainak besúlyozásával – egy valamilyen feladat megoldására alkalmas szoftver. Az MI valójában – mondja – a programozó munkáját automatizálja. Persze nem úgy, hogy kódot ír helyette, hanem inkább úgy, hogy az adatok alapján jön létre a szoftver működő, végleges verziója. Ez pedig az emberi meggondolatlanság és „trehányság” hatásait és veszélyeit – amely egyébként a technológiának mindig is tulajdonsága volt – új szintre emeli, még jobban felerősíti, hiszen már nem kell „félrekódolni” valamit, elegendő csak rossz adatokat használni tanítóadatként vagy túl korán abbahagyni a tanítást.
Ezért mindazon definíciók helyett, amelyek eddig forgalomban voltak, pl. a híres Russel-Norvig könyv „emberként/racionális lényként cselekedni/gondolkodni képes ágens” vagy azok helyett, amelyek az „autonómiát”, azaz a külső ingerekre történő adekvát reagálás képességét emelik ki, a lényeg az MI esetén a „befejezetlenség”, az öntanulási képesség, és emiatt a kiszámíthatatlan, nem-determinisztikus működés. Ez a felismerés egybevág azzal a tendenciával, amelyet más anyagokban, pl. a már korában blogbejegyzésként ismertetett OECD-s MI-anyagban is hangsúlyos, hogy ami valóban MI-specifikus, az a gépi tanulás, azaz minden olyan számítástechnikai módszer, amelyben ember felügyelete nélkül, közvetlenül a tanítóadatokból keletkeznek végrehajtható kódok.
Milyen következménye van mindennek a szabályozásra nézve? Először is az, hogy az etikai kódexek legtöbb követelményét a meglevő technológiaszabályozás is kiválóan kezeli.
Másodszor azonban az, hogy az adat és a jól kiválasztott tanítóadat (a példák), kulcsfontosságúvá válnak.
A kód előállítójának felelőssége pedig annyiban változik, hogy nem a kódolásért (a hibátlan programért), hanem elsősorban az adat minőségéért és a példák helyes kiválasztásáért kell felelnie.
Ha az MI megkülönböztető jegye a gépi tanulás („minden olyan rendszer, amely gépi tanuláson alapszik”), ez egyúttal megold néhány olyan dilemmát is, amely az MI-diskurzusban jelenleg megoldatlanként szerepel. Ilyen például a megmagyarázhatóság problémája. A gépi tanuláson alapuló rendszereknek nem úgy kell megmagyarázhatónak lenniük, ahogyan egy jogi döntést megindokolunk (az adott esetet egy szabály aleseteként magyarázzuk meg), hanem inkább úgy, ahogy a precedensjogok működnek, ahol – leegyszerűsítve – egy döntést egy hasonló példára mutatva támasztunk alá. Ugyanígy az elfogult MI problematikája is elesik, hiszen a rendszernek mutatni kell olyan példákat is, amelyek az előítéletekkel szembe mennek, és szisztematikusan kell tesztelni ilyen példákra is. Ez a megközelítés abból a szempontból is előnyös, hogy nemcsak az MI kimeneteit – és elsősorban a jogsértő vagy károkozó kimeneteket – lehet felelősségi szempontból kezelni a segítségével, hanem sokkal korábbi fázisban lehet „preventív” szabályokat alkotni az adatminőségre, a megfelelő tanító adatokra, sőt, ezen rendszerek szisztematikus előzetes bevizsgálására, auditjára vonatkozóan is.
Természetesen itt nem arról van szó, hogy minden gépi tanuláson alapuló rendszert előzetesen be kellene vizsgáltatni és engedélyeztetni. De lehet találni olyan formulát, amely alapján kockázati osztályokat lehetne felállítani. Érdemes pl. betekinteni az Információbiztonsági törvény végrehajtási rendeletébe, amely egyébként a 2016/1148 EU irányelv szempontrendszere alapján sorolja osztályokba a rendszereket és szervezeteket. A gépi tanuláson alapuló rendszereket véleményem szerint ugyanígy lehetne a felhasználók száma, a hatásuk földrajzi kiterjedése, a társadalmi és gazdasági folyamatokra, a jogalanyok vagyoni és személyi viszonyaira gyakorolt hatás stb. szempontjából szintekbe sorolni, és ezen szintek alapján egyre komolyabb követelményeket megfogalmazni, a legkockázatosabbak esetén akár előzetes teljes körű bevizsgálást is előírni. Hiszen nyilvánvaló, hogy egy online zenebolt ajánlórendszere kevésbé bír téttel, mint mondjuk egy taxiapplikáció fuvarokat elosztó algoritmusa (amely például a sofőrök keresetét komolyan befolyásolja), de ennél is nagyobb a tét, amikor mondjuk egy, az előzetes letartóztatás elrendelésére ajánlásokat tevő vagy egy önvezető járművet vezérlő algoritmus működéséről beszélünk.
Összefoglalva tehát, az MI szabályozásának végső célja ugyanúgy a technológia biztonságának, emberre való veszélytelenségének megteremtése, mint a már ismert technológiaszabályozásé.
A plusz kockázat és veszély elsősorban a gépi tanuláson alapuló rendszerekből fakad, ahol a tanítóadatok minősége ugyanolyan fontos – ha nem fontosabb –, mint maga a rendszer, amelyet tanítunk. Ahhoz, hogy az MI kockázatait hatékonyan tudjuk kezelni jogi eszközökkel, a szabályozásnak az adatminőségre, a tanítás folyamatára és a gépi tanuláson alapuló rendszerek differenciált – a kockázatok nagyságát szem előtt tartó – előzetes tesztelésére, bevizsgálására és tanúsítására (auditjára) is ki kell terjednie, természetesen a hagyományos, sokat tárgyalt jogi aspektusok (például a felelősség) mellett.