Döntés-előkészítő vagy döntéshozó legyen-e a mesterséges intelligencia? A biztonság és a szabadság szempontjából ez a kérdés sokkal fontosabb, mint a technológiai lehetőségek számba vétele. Igaz ez az arcfelismerő rendszerekre, is, amelyek kapcsán a világszerte terjedő koronavírus-járvány új kihívást jelent.
A biztonság kérdése mást jelent az állam és mást az egyén szempontjából. Míg az állam digitális biztonságát jogszabályok védik, addig az egyes állampolgárét elsősorban szerződéses jogviszony garantálja közte és különféle szolgáltatók között, az esetek nagyobb részében. Európában számos kutatás folyt az elmúlt években az állam és a mesterséges intelligencia viszonyáról – vázolta fel az egyik legalapvetőbb problémakört Sabjanics István doktorjelölt, a Pázmány Péter Katolikus Egyetem munkatársa.
Tömegben, gáton
A német rendőrségnél nyolc évvel ezelőtt indult egy vizsgálat arról, hogy miként segíti a mesterséges intelligencia, főként az arcfelismerő rendszerek használata a hatóságok munkáját a tömegrendezvényeken. Egy algoritmus a köztéri kamerák felvételei alapján azonosítani tudja például, hogy kik egy-egy erőszakba forduló tüntetés hangadói, s így segíti a veszélyes egyének kiemelését a tömegből, ezáltal az embercsoport lecsillapítható. A képi információt használó algoritmusokra egy másik példa az árvízi védekezés, melynek során a hatóságnak döntenie kell: egy jelentősebb áradás esetén hol kell átvágni a gátat, hogy a víznek szabad folyást engedjenek. Ilyenkor műholdfelvételek elemzése nyomán a mesterséges intelligencia határozza meg az optimális és célszerű átvágási pontot.
Kérdés, hogy kit terhel a felelősség, ha a mesterséges intelligencia alkalmazása esetleg – minden gondos mérlegelés dacára – rossz döntésre vezet: ha a tüntetésen olyan személyeket emelnek ki a tömegből, olyanokat neutralizálnak, akiket nem lett volna indokolt; illetve árvíz esetén túl nagy kárral jár a gátnak az algoritmus által javasolt keresztülvágása. Ha ezen beavatkozások következtében valakit kár ér, akkor kit pereljen a károsult? Ha a mesterséges intelligencia e folyamatokban csak döntés-előkészítő, akkor természetesen a hatóságot, az államot. Ám ha az algoritmus döntési helyzetbe kerül, akkor vajon kit lehet bíróság elé citálni? Ezek még mind kidolgozás alatt álló jogi kérdések – mondta el a Mesterséges intelligencia alkalmazásának hatása az alapjogokra című konferencia Szabadság és biztonság alcímet viselő szekciójának az előadója.
Megjósolható terrorveszély
Nemzetbiztonsági szempontból figyelemre méltó tény, hogy az Egyesült Királyságnak jelenleg három olyan, immár évtizedes múltra visszatekintő programja is fut, amely jelenleg a mesterséges intelligencia alkalmazása szempontjából jogilag még nem teljesen szabályozott. A Tempora nevű program folyamatosan, valós időben vizsgálja a világ internetforgalmát olyan módon, hogy rácsatlakozik az Európa és az Egyesült Államok között, az óceán mélyén futó kommunikációs vezetékre, s így próbálja kiszűrni a terrorfenyegetést. A Karma Polis még ennél is tovább megy: a jelen idejű internetforgalom elemzéséből jósolja meg, hogy kik lehetnek a közeljövőben a nemzetbiztonsági szempontból potenciálisan veszélyes felhasználók. A Black Hole program pedig az internet alapítása óta fut már, s több, mint 3 ezer milliárd adatot rögzített, ami sokféle leendő elemzésre adhat lehetőséget. Nem véletlen, hogy ez a roppant mennyiségű adat és e hihetetlenül intenzív folyamatos adatgyűjtés európai emberi jogi kérdéseket vetett fel a közelmúltban. Ez a példa jól mutatja, hogy a biztonság kérdéskörében a technológiai lehetőségek messze megelőzték a szabályozás folyamatát.
Fehérek, feketék, adatok
Tavaly novemberben publikálta az Európai Unió Alapjogi Ügynökség az arcfelismerési technológia rendészeti célú felhasználására vonatkozó kutatását – ismertette Molnár Tamás, az Ügynökség kutatója. A tanulmány megállapította, hogy száz százalékos azonosítási pontosságot garantáló rendszer nem létezik. Kétféle hiba lehetséges: az úgynevezett „false positive” hibalehetőség az, amikor például valakit téves azonosítás miatt emelnek ki egy tömegből. A „false negative” eshetőség viszont az, amikor egy amúgy kiszűrendő személy nem akad fenn az arcfelismerő rendszer rostáján, mert túlzottan érzékenyre állították be a szoftvert. A hatóság feladata az, hogy megtalálja a jó egyensúlyt a túlzott pontossági elvárás és az „állítsunk meg mindenkit, aki csak terroristagyanús lehet” felfogás között.
Egy arcfelismerő rendszer pontossága leginkább a belé táplált adatok minőségétől, precizitásától függ. De annak is függvénye, hogy milyen adatállományon tesztelték a rendszert annak alkalmazása előtt. Ha például fehér férfiak szerepeltek nagyobb számban a tesztelés során az adatbázisában, akkor pontatlanabb, érzéketlenebb lesz az arcfelismerő rendszer mondjuk a fekete bőrű nők azonosítása terén – s ennek már komoly, az alapjogokat érintő következményei lehetnek.
Maszkban, karanténban
A világban ma már legalább 64 országban alkalmaznak valamilyen arcfelismerő technológiát a bűnüldözésben. A mesterséges intelligencia alapjogi szempontú vizsgálata azért nehéz, mert annak használata közben merülnek fel olyan kérdések, amiket ideális esetben már a technológia indulása előtt szerencsésebb lett volna tisztázni – viszont akkor még nem volt ismert az algoritmusok alkalmazásának egyre táguló horizontja, szinte végtelen lehetősége. Pók László adatbiztonsági és adatvédelmi szakjogász szerint az arcfelismerés esetében is ez a helyzet: a rendszer alkalmazása során egyre több új kérdés merül fel, miközben az élet mind több és több területén alkalmazzák.
Például a világszerte terjedő koronavírus-járvány az arcfelismerő rendszerek számára is új kihívást jelent. Kína a világon az egyik legszélesebb körben alkalmazza az arcfelismerést a hétköznapokban, de az egészségügyi maszk viselése jelentősen korlátozza a rendszer alkalmazhatóságát. Moszkvában pedig az arcfelismerő technológiát arra kezdték használni, hogy a karanténba helyezett koronavírus gyanús személyeket nyomon tudják követni, s ne tudják elhagyni a számukra kijelölt elkülönítési helyet. Ez az aktuális oroszországi példa azonban felvetheti azt a – Pók László által szintén vázolt – problémát, hogy egy fejlett technika rendelkezésre állása nem vezethet-e annak túlzott, akár indokolatlan használatához. Vagyis nem azért alkalmazzák-e pusztán a hatóságok mind szélesebb és szélesebb körben – esetleg új és új alapjogi problémákat is felvető módon –, mert ha már kéznél van, akkor minél jobban ki akarják használni?
Előreláthatóan mindezen kérdések kutatása, illetve jogi szabályozása terén is lesz még sok teendő.