Több ez mint adatvédelem?
A mesterséges intelligencia (MI) terjedésével nő az emberek félelme attól, hogy az ilyen rendszerek alkalmazása sérti emberi jogaikat.
Félünk attól, hogy nem kapunk állást Facebookon kifejtett véleményünk miatt; hogy egy algoritmus szerint nem érdemes velünk életbiztosítást kötni; hogy elég csak megemlítenünk egy könyvet és a telefonunkon azonnal hirdetés jelenik meg annak áráról és megvásárlásának lehetőségeiről. Ez a félelmünk több emberi jogokkal foglalkozó nemzetközi szervezet szerint nem alaptalan. (European Union Fundamental Rights Agency: Getting The Future Right Artificial Intelligence And Fundamental Rights, Report, 2020. 1.; lásd továbbá az Európa Tanács vonatkozó tevékenységének alapjait.)
Néhány évvel ezelőtt az Európai Unió Általános adatvédelmi rendeletének (Az Európai Parlament és a Tanács 2016/679 rendelete – GDPR) kidolgozása, majd hatályba lépése kapcsán rengeteget foglalkozott nemcsak a jogtudomány, de a közvélemény is a személyes adatok védelmével. Ez a kérdés már akkor is – akarva-akaratlan – összekapcsolódott az MI fejlődésével. Ez aligha meglepő, ha elfogadjuk, hogy az MI adatokból dolgozik. Egy blogbejegyzés képtelen az MI összes definíciójának ismertetésére, sőt azok szintetizálására sem vállalkozik, de annyit meg mer állapítani általános érvénnyel, hogy minden MI adatok alapján hajt végre feladatokat (ismeri fel arcunkat és viselkedési mintáinkat, elemzi egészségügyi állapotunkat, „tanulja” meg a szépirodalmi ízlésünket). Ha pedig ez így van, akkor logikusnak tűnik elsősorban a személyes adatainkat félteni tőle.
Ahhoz pedig nem kell sem nemzetközi jogásznak, sem az emberi jogok szakértőjének lenni, hogy eszünkbe jusson az Emberi Jogok Európai Bírósága (EJEB) mint olyan fórum, ami ilyen esetleges jogsértést orvosolni tud. Érdekes lehet ezért megvizsgálni, hogy az EJEB foglalkozott-e már bármilyen MI-t érintő esettel. Ha pedig általánosságban elfogadjuk, hogy egy MI-t használó rendszer emberi jogokat veszélyeztethet, akkor a másik kérdés, amin érdemes elgondolkodni, hogy kimerül-e az EJEB tevékenysége abban, hogy biztosítsa, hogy a személyes adataink védelmével járó állami kötelezettségek teljesüljenek, vagy esetleg több ez adatvédelemnél?
Ha „megkérdezzük” erről az EJEB-et magát: öt olyan eset van, ami MI szempontjából jelentős (S. és Marper kontra Egyesült Királyság; Szabó és Vissy kontra Magyarország; Roman Zakharov kontra Orosz Föderáció; Breyer kontra Németország; Gaughran kontra Egyesült Királyság). (EJEB: Guide to the Case-Law of the European Court of Human Rights, Data protection. ) Ezen esetek egyike sem említi a „mesterséges intelligencia” kifejezést, csak a technológiai fejlődés jelentőségével és annak esetleges veszélyeivel foglalkoznak. Közös azonban bennük, hogy mindegyik ítéletben kimondta az EJEB az Emberi Jogok Európai Egyezményének megsértését, miszerint: „[M]indenkinek joga van arra, hogy magán- és családi életét, lakását és levelezését tiszteletben tartsák.” (8. cikk, 1. bekezdés). A másik közös elem, hogy az MI kifejezés nem szerepel az ítéletekben. Minden egyes ítéletben a fő kérdés az volt, hogy megsértette-e az állam a nemzetközi kötelezettségeit, amikor gyűjtött vagy tárolt különböző személyes adatokat. Ezekben az ügyekben a kérelmezők más emberi jogok megsértését is állították, de ezeket az EJEB nem vizsgálta. Ennek alapján egyértelműen úgy tűnhet, hogy a technikai fejlődésnek, MI-nak csak az adatvédelemhez van köze az EJEB gyakorlatában.
A vizsgálódást azonban érdemes úgy folytatni, hogy felderítjük, használja-e az MI kifejezést az EJEB bármely ítéletében. Egyetlen ilyen ítéletet találunk a gyakorlatban: a Sigurdur Einarsson és mások kontra Izland ügyet. Ebben az ügyben a 6. cikk, a tisztességes tárgyaláshoz való jog megsértésében volt szerepe – a kérelmező szerint – az MI-nak, amikor egy azt használó szoftverrel a nyomozó hatóság kivonatot készített a kérelmezőkkel szemben folytatott eljárás során a teljes nyomozati anyagból, és az eljárás alá vontak csak az előbbihez fértek hozzá. Az EJEB ezt a jogsértést nem állapította meg.
Az esetjog rövid áttekintése után tehát ismét fel kell tennünk a kérdést: amit az EJEB jelenleg nyújt, az több mint adatvédelem? Nem igazán. Természetesen véletlenül sem állítom, hogy más jogok nem sérülhetnek MI-t használó rendszereken keresztül. Csupán azt állítom, hogy ilyen eset még nem jutott el az EJEB-hez. És ha a „még”-et hangsúlyozzuk, nyilván el kell gondolkoznunk azon, hogy lehet-e ez majd több mint adatvédelem. Határozottan igen. De miért ilyen határozott az az igen?
Nemzetközi szervezetek hosszú sora jósolja a MI rohamos fejlődését és inti óvatosságra az államokat ezzel kapcsolatban. Elég csak utalni arra, hogy az Európai Bizottság 2021-ben kidolgozott egy rendelet-tervezetet a MI-ről (Javaslat az Európai Parlament és a Tanács rendelete a mesterséges intelligenciára vonatkozó harmonizált szabályok megállapításáról és egyes uniós jogalkotási aktusok módosításáról, COM/2021/206 final). Ha ez a rendelet elfogadásra kerül, az Európai Unió összes tagállamában kötelezőek lesznek rendelkezései. A nemzeti bíróságok is egyre gyakrabban találkoznak olyan ügyekkel, ahol az MI használata vet fel jogi kérdéseket. De talán, ami a legárulkodóbb, mi is érezzük az MI térnyerését a saját bőrünkön: bár megrökönyödéssel és némi szorongással, de rákattintunk a „feldobott” könyv rendelésére. Hogy kerülhetné el ezt az Emberi Jogok Európai Bírósága a jövőben?
A blogposzt a TKP2021-NKTA-51 számú projekt az Innovációs és Technológiai Minisztérium Nemzeti Kutatási Fejlesztési és Innovációs Alapból nyújtott támogatásával, a TKP2021-NKTA pályázati program finanszírozásában valósult meg.