Ki legyen a felelős azért, ha egy robot rosszul programoz vagy hibásan fejleszt ki egy új algoritmust? Egyebek mellett e kérdésekre keresik a választ az új technológiák szabályozási kihívásait vizsgáló kutatók, akik a Nemzeti Közszolgálati Egyetemen, A mesterséges intelligencia alkalmazásának hatása az alapjogokra című konferencián ismertették eredményeiket és elméleteiket.
Adva van egy okos karóra, amelyik figyeli és elemzi a tulajdonosa alvási ciklusait. Összegyűjti az adatokat az alvó gazdájáról, és pontosan akkor ébreszti fel őt, amikor már tudja róla, hogy nem a mély álom időszakában van, mert olyankor egy kicsit könnyebb és kellemesebbszámára felkelni az ágyból. Ez az okosóra már egy mesterséges intelligencia – szögezte le Karácsony Gergely, a Szegedi Egyetem docense, egyben a jogi kar általános és oktatási dékánhelyettese –, ugyanis adatokat gyűjt és döntést is hoz arról, hogy mikor optimálisabb ébresztenie a használóját. Ennél bonyolultabb szinten álló mesterséges intelligencia egy önvezető autó gépi „agya”, ami már komolyabb, a közlekedésbiztonságra jelentős kihatással bíró döntéseket hoz. Sokkal komplexebb rendszer, nagyságrendekkel több változóval dolgozik, mint az előző példában szereplő algoritmus. A technológiai fejlődés következő szakasza az lesz, amikor a programozók – immár belátható időn belül – létrehozzák az általános mesterséges intelligenciát, ami egy, az emberhez hasonló gép, önálló cselekvő lesz.
Kávéfőzőteszt
Hogy mi számít egy gép részéről önálló cselekvésnek, annak eldöntésére szolgálhat az úgynevezett „kávéfőzőteszt”: odaadom egy robotnak a lakáskulcsomat azzal az utasítással, hogy hozzon nekem az otthonomból egy friss, gőzölgő kávét. E feladat végrehajtásához a gépnek be kell mennie a lakásba, ott önálló döntések és választások sorozata révén meg kell keresnie a kávéfőzőt, betölteni a vizet és a kávéőrleményt, lefőzetni az eszpresszót, a kifolyó alá rakni egy bögrét, amihez fel kell ismernie az én saját a bögrémet, és végül ki kell hoznia a kávét úgy, hogy nem lötyögtette ki. Ha ezt a feladatsort sikerrel végrehajtja, akkor beszélhetünk egy igazán jól működő, akár emberszerű cselekvésekre képes mesterséges intelligenciáról – segít a definíció megtalálásában Karácsony Gergely.
De ez a kávéfőző-feladatsor még mindig csak a töredéke annak a rettenetesen komplex, hálózatszerű döntéshozatali mechanizmusnak, amire az algoritmikus tanulás és a gépi megvalósítás képes: óriási sebességgel, elképesztő adatmennyiséget tud feldolgozni, s megpróbál rájönni olyan összefüggésekre is, amelyek az ember számára nem vagy csak hosszas elemzések eredményeként láthatók. Ma már ott tart az informatika tudománya, hogy a robotok egymást fejlesztik, és a klasszikus programozói ráhatás a gépek tudására, működésére immár a közeli jövőben egyre inkább gyengülni fog. Ebben a helyzetben mind nehezebbé válik a mesterséges intelligenciára vonatkozó, egyfajta általános érvényű szabályrendszer kialakítása a jogalkotók számára.
Melyik úton?
Két irányba indulhat el ebben a bonyolult helyzetben a szabályozási módszertan. Vagy előzetesen lefektet a mesterséges intelligencia fejlesztésével és alkalmazásával kapcsolatos, jogi és etikai szempontokat egyaránt figyelembe vevő alapelveket. Ezzel biztosítja azt, hogy a társadalomra nem veszélyes eszközök kerülnek a forgalomba, a hétköznapi használatba. Vagy létezhet egy másik, ex post megközelítés. Ekkor az utólagos szabályozási környezetet kell pontosan megteremteni, a klasszikus fogyasztóvédelmi, valamint jogi felelősségi – magánjogi és büntetőjogi – szabályozással. Ez utóbbi esetben tehát annak a vizsgálatára kerül át a hangsúly, hogy ha már bekövetkezik valamilyen fajta káresemény, vagy nem kívánt eredmény, akkor az kinek a felelőssége, kinek kell helyt állnia érte.
Érthető a társadalom részéről az igény, hogy egy-egy új, és ismeretlensége miatt sokak számára még fenyegetőnek tűnő jelenség megjelenésekor szeretné már akkor szabályozni az adott technológiai újítást, amikor az még nem is fejtette ki esetleges károsító hatásait – mondta el Udvary Sándor, a Károli Gáspár Református Egyetem Polgári Eljárásjogi Tanszékének docense. Ennek a proaktív szabályozási módszernek a célja, hogy előre elkerüljük vagy minimalizáljuk a lehetséges károkat.
Milton Friedman Nobel-díjas amerikai közgazdász azonban meglehetősen bizalmatlan volt ezekkel az előzetes beavatkozásokkal, a túlzottan szabályozó állammal szemben. Ő azt vallotta: alaposan meg kell fontolni a jogalkotást minden olyan kérdésben, ami valamilyen technológiai innováció szabályozását érinti, hiszen amikor egy ilyet szabályoznak, akkor azzal egyben keretek közé szorítják. Ezek pedig nem engedik teljes mértékben, teljes hatékonyságában kibontakozni. Általánosságban elmondható Udvary Sándor szerint, hogy a mesterséges intelligencia fejlesztése és alkalmazása társadalmi hasznot hoz. A jognak ebben a helyzetben tehát nem lehet az a feladata, hogy meggátolja a terjedését.
Mossák kezüket?
Ugyanakkor a robotok egyre inkább önálló cselekvőkké válnak, ezáltal haladnak az emberi társadalom autonóm (bár nem emberi, tehát non-human) szereplő státusza irányába. Vajon jelentheti-e ez egyben azt is, hogy önálló jogi személyek is lesznek? Mondhatja-e azt egy informatikai fejlesztő vagy egy robottechnikai cég, hogy „csak” legyártott valamilyen célú robotot, s annak forgalomba hozatalával gyártóként az ő felelőssége megszűnik? Hiszen a működő robot már autonóm módon dolgozik, így önálló felelősséggel rendelkezik mindazon cselekvések összességével kapcsolatban, amire munkába állították. A gyártó ezáltal áthárítaná a jogi felelősséget a mesterséges intelligencia üzembe helyezőjére vagy tulajdonosára. De vajon megteheti-e ezt? Udvary Sándor aligha tartja ezt elfogadhatónak, s nem tartja véletlennek, hogy európai uniós szinten komoly egyeztetések folynak a mesterséges intelligencia alkalmazásának jogi felelősségi szabályozásáról.