Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Magazin: Előadó
Gózon Ákos
Gózon Ákos
újságíró
  • 2020.04.20.
  • 2020.04.20.
Magazin / Előadó

Koronavírus, terrorizmus, arcfelismerés

Döntés-előkészítő vagy döntéshozó legyen-e a mesterséges intelligencia? A biztonság és a szabadság szempontjából ez a kérdés sokkal fontosabb, mint a technológiai lehetőségek számba vétele. Igaz ez az arcfelismerő rendszerekre, is, amelyek kapcsán a világszerte terjedő koronavírus-járvány új kihívást jelent.

A biztonság kérdése mást jelent az állam és mást az egyén szempontjából. Míg az állam digitális biztonságát jogszabályok védik, addig az egyes állampolgárét elsősorban szerződéses jogviszony garantálja közte és különféle szolgáltatók között, az esetek nagyobb részében.  Európában számos kutatás folyt az elmúlt években az állam és a mesterséges intelligencia viszonyáról – vázolta fel az egyik legalapvetőbb problémakört Sabjanics István doktorjelölt, a Pázmány Péter Katolikus Egyetem munkatársa.

Tömegben, gáton

A német rendőrségnél nyolc évvel ezelőtt indult egy vizsgálat arról, hogy miként segíti a mesterséges intelligencia, főként az arcfelismerő rendszerek használata a hatóságok munkáját a tömegrendezvényeken. Egy algoritmus a köztéri kamerák felvételei alapján azonosítani tudja például, hogy kik egy-egy erőszakba forduló tüntetés hangadói, s így segíti a veszélyes egyének kiemelését a tömegből, ezáltal az embercsoport lecsillapítható. A képi információt használó algoritmusokra egy másik példa az árvízi védekezés, melynek során a hatóságnak döntenie kell: egy jelentősebb áradás esetén hol kell átvágni a gátat, hogy a víznek szabad folyást engedjenek. Ilyenkor műholdfelvételek elemzése nyomán a mesterséges intelligencia határozza meg az optimális és célszerű átvágási pontot.  

Kérdés, hogy kit terhel a felelősség, ha a mesterséges intelligencia alkalmazása esetleg – minden gondos mérlegelés dacára – rossz döntésre vezet: ha a tüntetésen olyan személyeket emelnek ki a tömegből, olyanokat neutralizálnak, akiket nem lett volna indokolt; illetve árvíz esetén túl nagy kárral jár a gátnak az algoritmus által javasolt keresztülvágása. Ha ezen beavatkozások következtében valakit kár ér, akkor kit pereljen a károsult? Ha a mesterséges intelligencia e folyamatokban csak döntés-előkészítő, akkor természetesen a hatóságot, az államot. Ám ha az algoritmus döntési helyzetbe kerül, akkor vajon kit lehet bíróság elé citálni? Ezek még mind kidolgozás alatt álló jogi kérdések – mondta el a Mesterséges intelligencia alkalmazásának hatása az alapjogokra című konferencia Szabadság és biztonság alcímet viselő szekciójának az előadója.

Megjósolható terrorveszély

Nemzetbiztonsági szempontból figyelemre méltó tény, hogy az Egyesült Királyságnak jelenleg három olyan, immár évtizedes múltra visszatekintő programja is fut, amely jelenleg a mesterséges intelligencia alkalmazása szempontjából jogilag még nem teljesen szabályozott. A Tempora nevű program folyamatosan, valós időben vizsgálja a világ internetforgalmát olyan módon, hogy rácsatlakozik az Európa és az Egyesült Államok között, az óceán mélyén futó kommunikációs vezetékre, s így próbálja kiszűrni a terrorfenyegetést. A Karma Polis még ennél is tovább megy: a jelen idejű internetforgalom elemzéséből jósolja meg, hogy kik lehetnek a közeljövőben a nemzetbiztonsági szempontból potenciálisan veszélyes felhasználók. A Black Hole program pedig az internet alapítása óta fut már, s több, mint 3 ezer milliárd adatot rögzített, ami sokféle leendő elemzésre adhat lehetőséget. Nem véletlen, hogy ez a roppant mennyiségű adat és e hihetetlenül intenzív folyamatos adatgyűjtés európai emberi jogi kérdéseket vetett fel a közelmúltban. Ez a példa jól mutatja, hogy a biztonság kérdéskörében a technológiai lehetőségek messze megelőzték a szabályozás folyamatát.

Fehérek, feketék, adatok

Tavaly novemberben publikálta az Európai Unió Alapjogi Ügynökség az arcfelismerési technológia rendészeti célú felhasználására vonatkozó kutatását – ismertette Molnár Tamás, az Ügynökség kutatója. A tanulmány megállapította, hogy száz százalékos azonosítási pontosságot garantáló rendszer nem létezik. Kétféle hiba lehetséges: az úgynevezett „false positive” hibalehetőség az, amikor például valakit téves azonosítás miatt emelnek ki egy tömegből. A „false negative” eshetőség viszont az, amikor egy amúgy kiszűrendő személy nem akad fenn az arcfelismerő rendszer rostáján, mert túlzottan érzékenyre állították be a szoftvert. A hatóság feladata az, hogy megtalálja a jó egyensúlyt a túlzott pontossági elvárás és az „állítsunk meg mindenkit, aki csak terroristagyanús lehet” felfogás között.

Egy arcfelismerő rendszer pontossága leginkább a belé táplált adatok minőségétől, precizitásától függ. De annak is függvénye, hogy milyen adatállományon tesztelték a rendszert annak alkalmazása előtt. Ha például fehér férfiak szerepeltek nagyobb számban a tesztelés során az adatbázisában, akkor pontatlanabb, érzéketlenebb lesz az arcfelismerő rendszer mondjuk a fekete bőrű nők azonosítása terén – s ennek már komoly, az alapjogokat érintő következményei lehetnek.

Maszkban, karanténban

A világban ma már legalább 64 országban alkalmaznak valamilyen arcfelismerő technológiát a bűnüldözésben. A mesterséges intelligencia alapjogi szempontú vizsgálata azért nehéz, mert annak használata közben merülnek fel olyan kérdések, amiket ideális esetben már a technológia indulása előtt szerencsésebb lett volna tisztázni – viszont akkor még nem volt ismert az algoritmusok alkalmazásának egyre táguló horizontja, szinte végtelen lehetősége. Pók László adatbiztonsági és adatvédelmi szakjogász szerint az arcfelismerés esetében is ez a helyzet: a rendszer alkalmazása során egyre több új kérdés merül fel, miközben az élet mind több és több területén alkalmazzák.

Például a világszerte terjedő koronavírus-járvány az arcfelismerő rendszerek számára is új kihívást jelent. Kína a világon az egyik legszélesebb körben alkalmazza az arcfelismerést a hétköznapokban, de az egészségügyi maszk viselése jelentősen korlátozza a rendszer alkalmazhatóságát. Moszkvában pedig az arcfelismerő technológiát arra kezdték használni, hogy a karanténba helyezett koronavírus gyanús személyeket nyomon tudják követni, s ne tudják elhagyni a számukra kijelölt elkülönítési helyet. Ez az aktuális oroszországi példa azonban felvetheti azt a – Pók László által szintén vázolt – problémát, hogy egy fejlett technika rendelkezésre állása nem vezethet-e annak túlzott, akár indokolatlan használatához. Vagyis nem azért alkalmazzák-e pusztán a hatóságok mind szélesebb és szélesebb körben – esetleg új és új alapjogi problémákat is felvető módon –, mert ha már kéznél van, akkor minél jobban ki akarják használni?

Előreláthatóan mindezen kérdések kutatása, illetve jogi szabályozása terén is lesz még sok teendő.

Témakörök: arcfelismerés, döntéshozó, false negative, false positive, koronavírus, mesterséges intelligencia
LUDECON BLOG

Gazdaságpolitikai mozgásterek a koronavírus-járvány hatásainak enyhítésére a szubszaharai térségben

2020 márciusa óta számos elemzést olvashattunk a fejlett országok által hozott fiskális és monetáris intézkedésekről a koronavírus-járvány gazdasági hatásainak enyhítése kapcsán, a fejlődő világ és ezen belül a szubszaharai térség

FRONTIER BLOG

Elkezdődhet a bevándorlás ideiglenes felfüggesztése az Egyesült Államokban?

Donald Trump elnök április 20-án bejelentette, hogy elnöki rendelet útján ideiglenesen felfüggeszti az Egyesült Államokba történő bevándorlást a koronavírus-járvány kapcsán. Bejelentését Twitter oldalán tette közzé, a rendeletet pedig április 22-én

Előadó

Fenntartani a kivívott közbizalmat – robotok az alkalmazott jogban

Mi lenne, ha minden újszülöttnek automatikusan érkezne a személyi-, lakcím, TAJ- és adókártyája, szüleiknek pedig elszámolná egy robot a CSOK-ot?

nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT