Skip to content
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
Hárs András

Szabályozás hálójában: mesterséges intelligencia és emberi jogok

Ki hol tart a szabályozásban?

Hárs András 2022.11.30.
Pató Viktória Lilla

Új javaslatok születtek a digitális piac felelősségi szabályainak korszerűsítésére

Körforgásos MI-felelősség.

Pató Viktória Lilla 2022.10.03.
Németh-Szebeni Zsófia

A mesterséges intelligencia fejlesztésének helyzete és trendjei a világban

A mesterséges intelligencia megkezdte felülmúlni az embert.

Németh-Szebeni Zsófia 2022.07.28.
Ludovika.hu

Úttörő szerepben a NAIH a bizalomra épülő mesterséges intelligencia alkalmazások kiépítésében?

A bírság, és az ügy más jelentőségei.

Ludovika.hu 2022.07.15.
Ináncsi Mátyás

Autonóm járművek kiberbiztonsági kihívásai (3. rész)

Hogyan támadhatók az autonóm jármű érzékelői?

Ináncsi Mátyás 2022.06.29.
ITKI BLOG
Ződi Zsolt
Ződi Zsolt
tudományos főmunkatárs, NKE Információs Társadalom Kutatóintézet
  • 2020.10.02.
  • 2020.10.02.

A mesterséges intelligencia szabályozásának dilemmái (2)

2. rész: Kik legyenek a szabályozás címzettjei?

Egy korábbi blogbejegyzésemben az egyre szaporodó mesterséges intelligencia etikai kódexek hiábavalóságát részleteztem.  Egyúttal ígéretet tettem, hogy ezeknek a dokumentumoknak a homályos megfogalmazású, általános elvei helyett néhány konkrét és kézzelfogható javaslatot teszek a mesterséges intelligencia szabályozására. Ezeket a javaslatokat öt téma köré rendeztem, és öt rövid blogbejegyzés formájában bocsátom vitára, invitálva mindazon szakmák képviselőit, akik úgy érzik, hogy van mondanivalójuk a mesterséges intelligencia szabályozásával kapcsolatban. Ez a második blogbejegyzés arról a problémáról szól, hogy ki legyen a jogi szabályozás címzettje.  

Mielőtt rátérnék a kérdésre, megemlítem, hogy még áprilisban maga az etikai kódexeket listázó algorithmwatch.org oldal is közzétett egy olyan írást, amelyben „papírtigriseknek” nevezi ezeket az etikai kódexeket, érdemes elolvasni.

A kérdés, hogy a mesterséges intelligenciát célzó jogi szabályozásnak tisztázni kell-e a címzetti körét, furcsának tűnhet, hiszen hajlamosak vagyunk elsőre rávágni, hogy a jogban a legtöbb szabály „mindenkinek” szól. Nehéz lenne vitatkozni például azzal, hogy a büntetőjog szabályait mindenkinek be kell tartania, hiszen mindenkinek tartózkodnia kell bűncselekmények elkövetésétől. Nincs ezen tehát mit gondolkodni: az MI-re vonatkozó szabályoknak „mindenki” a címzettje.

A kérdés mégsem felesleges. Az, hogy a címzetti kört tisztázni kell, szoros kapcsolatban van azzal a problémával, hogy a mesterséges intelligenciát milyen jogág eszközeivel szabályozzuk. A fentebbi példában, a büntetőjog területén fel sem vetődik, hogy az ne vonatkozna kényszerítő erővel mindenkire. Ugyanakkor a magánjog szabályainak többsége ún. diszpozitív szabály, azaz a felek szabad megállapodása felülírhatja azt, vagy még pontosabban a polgári törvénykönyvben foglalt szabályok nagy része akkor lép csak működésbe, ha a felek nem állapodtak meg valamiben. Ha a vita azonban bíróság elé kerül, a bíróság kötelezően alkalmazza az egyébként diszpozitív szabályokat. A közigazgatási jog területén pedig a szabályok általában hasonlóan kötelezőek ugyanúgy, mint a büntetőjogban, de a nem szabályozott területeken az állampolgároknak szabad mozgásterük van: ami nem tilos, azt meg szabad tenni. A szabályok tehát itt is egyszerre kötik az állampolgárt és az állami szervezetet, de míg a szabályok között nyitva hagyott térben az állampolgár és a magánjogi jogalanyok szabadon mozognak, addig az állami szervezetrendszer mozgási szabadságát szigorúan a jogszabályok jelölik ki. A gépjárművek átvizsgálására vonatkozó szabályrendszer például pontosan megmondja, hogy milyen járművet lehet és milyen műszaki feltételekkel átengedni a műszaki vizsgán, és ez köti a vizsgabiztost, mint az állam megbízottját, de amire vonatkozóan ez a szabályrendszer nem mond semmit, azt az állampolgár megteheti a gépjárművével. Például semmi nem tiltja, hogy bólogató kutyát tegyen a hátsó ablakba.

Némileg más a helyzet az alkotmányjogban, illetve ezzel kapcsolatban parázs viták folynak. Az alkotmányjog alapjogi része (tulajdonhoz, vélemény-nyilvánításhoz való jog, stb.) ugyanis a „klasszikus”  elképzelés szerint amellett, hogy az állampolgárok számára kinyilvánítja, hogy milyen „szabadságaik” vannak, praktikusan elsősorban az állam számára jelöl ki korlátokat: mik azok a határok, amelyeken nem lehet túlterjeszkedni. És a probléma itt kezdődik. A mesterséges intelligencia etikai kódexei ugyanis  – szinte az összes – alapjogi beszédmódban íródtak, („diszkrimináció-tilalom”, „átláthatóság”, „megmagyarázhatóság”, stb.) ahol a védett jogalany továbbra is az állampolgár, a címzett azonban – úgy tűnik – maga a mesterséges intelligencia. „Ő” az, akinek „nem szabad nem, faj, stb. szerint diszkriminálnia”, akinek a döntése „megmagyarázható kell legyen” és így tovább, és ráadásul ezek a kódexek mindezt ugyanúgy imperatív módon írják elő, ahogy az alkotmányjog az állammal „beszél”.

Csakhogy a mesterséges intelligencia nem lehet a szabályozás címzettje, mert a jogi szabályokat egyelőre nem képes megérteni és betartani. A címzett alapvetően a szoftver fejlesztője, annak konkrét üzemeltetője és az lehet, akinek az „érdekében”, azaz hasznára a szoftver működik, aki nagyjából és leegyszerűsítve a tulajdonos. Az első csoport (fejlesztők) esetén technikai sztenderdeket kell(ene) alkotni, amelyek például – az első blogbejegyzésemben leírt – adatkiválasztási, tisztítási és tesztelési módszereket konkretizálják, a konkrét üzemeltetőnek elsősorban a szoftverek működtetésével kapcsolatos szabályokat lehet alkotni (pl. mikor és milyen körülmények közt lehet és mikor nem lehet gépi tanuláson alapuló szoftvert használni, kell-e és hogyan tájékoztatni az érintetteket arról, hogy nem emberi döntéssel fognak találkozni, stb.), a harmadik kör pedig – a haszonhúzók, tulajdonosok – elsősorban a már felmerült károk megtérítése kapcsán jöhet szóba, a polgári jogi kártérítés intézményein keresztül.

Mindez ráadásul érint egy olyan problémát, amely felett nem szabad elsiklani, ez pedig az, amelyet a jogtudomány az alkotmányjogi szabályok „horizontális hatályaként” tárgyal. A fentebbi fejtegetésből egyértelmű, hogy adottnak vesszük, hogy lényegében alkotmányos vagy legalábbis annak tűnő szabályokat akarunk érvényesíteni magánszervezetekkel (fejlesztők, üzemeltetők, haszonhúzók) szemben. Az alkotmányjogi irodalomban parázs viták zajlottak az elmúlt évtizedekben, hogy példának okáért lehet-e a diszkrimináció-tilalmat alkalmazni egy kocsmát üzemeltetőre, (neki is be kell mindenki engedni a magántulajdonába) vagy hogy köteles-e tiszteletben tartani egy pláza a szólásszabadságot (ha valaki mondjuk politikai üzenetet hordozó pólót visel). A válaszok a „nem”-től az óvatos „igen, bizonyos esetekben”-ig terjedtek. A mesterséges intelligenciával kapcsolatban – és megjegyezzük, ez a tendencia már az adatvédelem területén elindult – ez a dilemma mintha nem is létezne. Adottnak vesszük, hogy a „mesterséges intelligenciának” minden alkotmányos szabályt be kell tartania, függetlenül attól, hogy ki üzemelteti, ki a tulajdonosa, és mennyire nagy kockázatot hordoz a működése. Pedig ez egyáltalán nem triviális.

Mindezeket a problémákat véleményem szerint úgy lehetne feloldani, hogy egyrészt célszerű lenne a korábban már emlegetett kockázati osztályokba sorolni gépi tanuláson alapuló rendszereket,  másrészt azt a kibővített alapjogi katalógust is, amelyeket a gépi tanulásos rendszerek érintenek, egyfajta mátrixba foglalni. Minél nagyobb kockázatú rendszerről van szó, annál magasabb lenne a követelményszint, amelyet meg kell a rendszernek ugrania, és mindezt még egy előzetes bevizsgálási kötelezettséggel is ki lehetne egészíteni a legmagasabb kockázati szinteken. (Az ISO el is kezdett egy ilyen szabványt kidolgozni.) Másrészt, ezt a kötelezettséget egyszerre kell a rendszereket fejlesztőkre és az üzemeltetőikre is telepíteni. A fejlesztők felelősek, hogy a rendszerek összhangban legyenek a követelményekkel általában, az üzemeltetők felelőssége pedig az, hogy az egyébként a sztenderdeknek megfelelően működő rendszerek csak a kockázati besorolásnak megfelelő helyzetekben és körülmények közt működhessenek. És persze a fentebb említett előzetes engedélyeztetési rendszert egy hatékony ellenőrzési mechanizmussal együtt célszerű az egyes ágazatokban már létező szabályozó hatóságok kezébe adni és nem valamiféle „robotügynökségben”, vagy „MI hatóságban” gondolkodni. (Pénzügyi felügyelet, egészségügyi hatóság, közlekedési felügyelet, stb., amelyek a rendszerek előállítása és működtetése során is szerepet kaphatnak.)  De ez már egy újabb blogbejegyzés témája lesz, hiszen összefügg azzal, hogy van-e értelme általános „robotjogról” beszélni.

Témakörök: gépi tanulás, jogi szabályozás, mesterséges intelligencia, robotjog
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT