A mesterséges intelligencia (MI) elképesztő ütemű fejlődése életünk számos területét érinti a társas kapcsolatoktól kezdve az oktatáson és a munkavégzésen keresztül az egészségügyig és a közlekedésig.
Az MI-rendszerek (kognitív vagy észlelési funkciókat végrehajtó algoritmikus modellek) szerepet játszanak annak eldöntésében, hogy az illető milyen társadalombiztosítási juttatásban részesül, hol valószínűsíthető betörés, vagy hogy fennáll-e a rák kockázata. Kétségtelen, hogy a mesterséges intelligencia sok szempontból megkönnyíti és hatékonyabbá teszi életünket. Ugyanakkor sokan még mindig nincsenek tisztában azzal, hogy ezek a technológiák milyen negatívan befolyásolhatják az emberi jogokat, a demokráciát és a jogállamiságot. Amint az UNESCO főigazgatója figyelmeztetett, „az MI az emberiség új határa. Ha ezt a határt átlépjük, az MI az emberi civilizáció új formájához fog vezetni. […] Döntő kérdés előtt állunk: milyen társadalmat akarunk a holnap számára? A mesterséges intelligencia forradalma izgalmas új távlatokat nyit meg, de az általa előidézett antropológiai és társadalmi zűrzavar alapos megfontolást igényel.”
Nézzünk meg néhány emberi jogi kockázatot tüzetesebben! Az MI-vel kapcsolatos leggyakoribb félelmek a magánélethez való joghoz, az adatvédelemhez kapcsolódnak. Megdöbbentő tény, hogy az elmúlt évtizedben az emberek évente annyi adatot állítottak elő, mint amennyit az emberiség egész korábbi története során. Az Amazon, a Facebook, a Google és más cégek nap mint nap soha nem látott mennyiségű adatot gyűjtenek be felhasználóiktól. A digitalizáció a környezetünket is érinti, gondoljunk csak az okosotthon-megoldásokra, azokra a háztartási eszközökre, amelyek az internethez csatlakozva képesek szolgáltatást nyújtani. Amire a kényelmi megfontolások mellett nem mindig gondolunk, az az, hogy az online szolgáltatások és termékek gyakran a felhasználó tudta vagy beleegyezése nélkül gyűjtik az adatokat, amelyek lehetővé teszik az egyének azonosítását, illetve populációszintű adatokon alapuló profilozását. Adatvédelmi problémák merülnek fel a munkahelyen is. A vállalatok előszeretettel használnak adatelemzést alkalmazottaik tevékenységének és teljesítményének nyomon követésére, akár a nem munkával kapcsolatos viselkedésükre kiterjedően is.
Ma már sajnos nem ismeretlen a „megfigyelő állam” (surveillance state) fogalma sem. Közterületeinket ellepték a térfigyelő kamerák, az arc- és járműfelismerő eszközök, a forgalomfigyelő technológiák. A tömeges megfigyelésnek, a kommunikáció tömeges lehallgatásának persze fontos szerepe van nemzetbiztonsági szempontból, különösen a terrorizmus és más súlyos bűncselekmények (kiberbűnözés, kábítószer-kereskedelem, embercsempészet, stb.) elleni harcban, vagy éppen egy pandémia leküzdésében. Bizony, az MI- alapú alkalmazásokat a COVID-19 járvány elleni küzdelemben is széles körben alkalmazták a koronavírus terjedésének nyomon követésére és az emberek kapcsolati hálójának feltérképezésére.
A megfigyelésre használt egyik leggyorsabban fejlődő MI-technológia a biometrikus arcfelismerés, amely az arcvonások automatizált összehasonlítását teszi lehetővé a gyanúsítottak azonosítása érdekében. A technológia elterjedt az Egyesült Királyságban, az Egyesült Államokban és Ausztráliában, nemzetközi repülőtereken és határellenőrző rendszerekben is. Az útlevelekből, jogosítványokból, de akár a közösségi médiából is gyűjtött arcképeket egy központi adatbázisba integrálják, amelyhez a bűnüldöző és más kormányzati szervek férhetnek hozzá. A veszély abban rejlik, hogy e rendszerek képesek a biometrikus információkat összekapcsolni az egyéb adatbázisokból nyert adatokkal (telefon metaadatok, internetes keresési előzmények, pénzügyi, egészségügyi és adózási nyilvántartások stb.). A személyes adatok gyűjtésének és felhasználásának köre folyamatosan bővül („data creep”), ami egyértelműen ellentétes az adatkezelés célhoz kötöttségének elvével. Ez a tendencia nemcsak a magánélethez való jogot sérti közvetlenül, de alapvetően veszélyezteti a demokratikus társadalom lényegét. Az autonóm, méltósággal rendelkező egyén beleegyezésével végzett rendészeti tevékenység lassan átadja helyét a tekintélyelvű felügyelet kultúrájának. Ennek iskolapéldája Kína, ahol egy olyan szociális kreditrendszert hoztak létre, amely a társadalmi normák betartása alapján jutalmazza és bünteti az állampolgárokat, a normakövetést pedig egy kiterjedt biometrikus megfigyelőhálózat ellenőrzi.
A bűnmegelőzés területén az MI-technológiákat főként személyek és területek profilozására, feltételezett bűncselekmények előfordulásának előrejelzésére, valamint a jövőbeli bűnelkövetés állítólagos kockázatának felmérésére használják. Persze az MI sem tévedhetetlen. Rossz döntéshez vezethet például a relatív valószínűségre való túlzott támaszkodás, a profilspecifikusság hiánya, vagy pontatlan adatok beszivárgása az adatbázisba. Ilyen esetekben a magánélethez való jog mellett sérülhet a személyes szabadsághoz és biztonsághoz való jog, az önkényes letartóztatás tilalma, valamint a tisztességes eljáráshoz való jog is, beleértve az ártatlanság vélelmét. A védelemhez való jogon belül a „fegyverek egyenlőségének” elvét sérti, ha a vádlottnak nincs lehetősége megkérdőjelezni az ellene felhasznált, automatikusan előállított bizonyítékok helyességét vagy kiválasztását. Egy ilyen ügyet néhány éve az Emberi Jogok Európai Bírósága is tárgyalt. Ma már széles körben használnak MI-alapú kockázatértékelési szoftvereket az USA-ban, Kanadában és az Egyesült Királyságban az előzetes letartóztatással, az óvadék megállapításával, a börtönbüntetések időtartamával és a feltételes szabadságra bocsátással kapcsolatos bírói döntések meghozatalára. Joggal vethető fel, hogy a magánvállalatok által kifejlesztett mesterséges intelligenciára támaszkodó igazságszolgáltatás mennyire tekinthető függetlennek (az igazságszolgáltatás függetlensége a tisztességes eljáráshoz való jog lényeges része).
Az automatizált döntéshozatal olyan demokratikus alapelveket is sért, mint az átláthatóság, kiszámíthatóság, megbízhatóság, elszámoltathatóság vagy részvétel. Ennek legfőbb oka a „fekete doboz” jelenség: igazából nem értjük, hogy a betáplált adatokból (amelyek önmagukban is tévesek vagy elfogultak lehetnek) hogyan hozza meg döntését a szoftver. Márpedig a különféle szociális szolgáltatások terén is gyakran alkalmaznak MI-technológiákat, például a jogosultsági feltételek értékelésénél vagy a kockázatfelmérésnél. A digitális jóléti társadalomban így potenciálisan sérül például a szociális biztonsághoz való jog vagy a lakhatáshoz való jog.
Számos tanulmány bizonyította, hogy az MI-technológiák aránytalanul célozzák és diszkriminálják a kisebbségeket és a társadalom egyéb marginalizált csoportjait, ezáltal felerősítik a rendszerszintű diszkriminációt, a hatalmi egyenlőtlenségeket, a kirekesztést és a rasszizmust. Ez nemcsak a büntetőeljárásra, de más területekre is igaz. Például az Egyesült Államok egészségügyi rendszerében használt MI kapcsán kiderült, hogy azok a fekete páciensek, akikhez az algoritmus azonos kockázati szintet rendelt, valójában betegebbek voltak, mint a fehér páciensek. A torzítás magyarázata, hogy az algoritmus az egészségügyi költségeket az egészségügyi szükségletek proxyjaként (helyettesítőjeként) használja. Mivel a gyakorlatban kevesebb pénzt költenek a fekete páciensekre, az algoritmus hamisan azt a következtetést vonja le, hogy ők egészségesebbek, mint ugyanolyan beteg fehér társaik. Ez pedig ördögi körhöz vezet, hiszen a faji elfogultsággal terhelt szoftver tovább csökkenti az extra ellátást igénylőként azonosított feketék számát.
Nemcsak faji-etnikai, de nemi diszkriminációra is „hajlamos” az MI. Talán többen hallottak az Amazon által kifejleszett munkaerő-felvételi rendszerről, amely lepontozta a nők önéletrajzait, de a LinkedIn-ről és a Google-ről is kiderült, hogy a jól fizető, magas beosztású pozíciókat sokkal gyakrabban jelenítik meg a férfi álláskeresők számára. (Ezekben az esetekben a munkához való jog sérelme is felvetődik.) A hátrányos megkülönböztetés klasszikus példái között szokták emlegetni a Google arcfelismerő rendszerét, amely a feketéket gorillákként azonosította, vagy a Microsoft Tay nevű chatbotját, aki egy nap alatt rasszista neonáci lett.
A diszkrimináció oka az adatelfogultság és/vagy az algoritmikus torzítás. Ami az előbbit illeti, az automatizált döntéshozó rendszerek – gépi tanuláson és mély tanuláson keresztül – hatalmas adatbázisokból tanulnak („Big Data”). A gép elfogultsága nem abból fakad, hogy az MI önmagában egy „gonosz” technológia, hanem abból, hogy maga a világunk elfogult. Az algoritmusokat fejlesztőik tudatos és tudattalan előítéletei befolyásolják a betanításhoz használt adatokon keresztül.
Közvetett módon diszkriminációhoz vezethet az algoritmikus torzítás is, például az online tartalomfogyasztás kapcsán. Ha szívesen kattintunk bizonyos témájú bejegyzésekre, akkor ezek a témák egyre sűrűbben fognak megjelenni a képernyőnkön, ami felerősíti eleve meglévő elfogultságainkat. Azzal talán nincs is baj, ha valaki sok környezetvédelmi cikket olvas vagy cuki állatos/kisbabás videókat nézeget. De az azonos irányultságú politikai tartalmak „túlfogyasztása” már veszélyes polarizációt okozhat a társadalomban, ami különösen hátrányosan érintheti a kiszolgáltatott népcsoportokat (gondoljunk csak a hazai közösségi médiát elárasztó „cigányozós”, „zsidózós” stb. kommentekre). Az algoritmikus torzítás a vélemények sokszínűségét is korlátozza, ami a véleménynyilvánítási szabadságot sértheti.
Reményeim szerint már e rövid, példálózó felsorolás is meggyőzi az olvasót arról, hogy a mesterséges intelligencia alkalmazása a lehető legszélesebb körben érinti emberi jogainkat. A problémát nem szabad túlzott óvatosságként szőnyeg alá söpörni, bagatellizálni. A felelős döntéshozóknak a különféle MI-technológiák szabályozásánál figyelniük kell arra, hogy az MI által kínált lehetőségek megvalósítása mellett az emberi jogi kockázatok a minimálisra csökkenjenek. Jogaink, méltóságunk és életünk a tét.
A blogposzt a TKP2021-NKTA-51 számú projekt keretében, az Innovációs és Technológiai Minisztérium Nemzeti Kutatási Fejlesztési és Innovációs Alapból nyújtott támogatásával, a TKP2021-NKTA pályázati program finanszírozásában valósult meg.