Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Magazin: Előadó
Gózon Ákos
Gózon Ákos
újságíró
  • 2020.03.03.
  • 2020.03.03.
Magazin / Előadó

Mennyit tudjanak rólunk a gépek?

Közbiztonságot növelő térfigyelő kamerák és személyiségi jogok; kötetlen munkaidő és a magánélet védelme; bűnüldözés és adatvédelem – a digitalizáció és a mesterséges intelligencia térhódítása nyomán számos jogi dilemma merült fel. Az eligazodást most egy az Alkotmánybíróság, a Nemzeti Adatvédelmi és Információszabadság Hatóság, valamint az Nemzeti Közszolgálati Egyetem Információs Társadalom Kutatóintézete által szervezett szakmai fórum segíti. „A mesterséges intelligencia alkalmazásának hatása az alapjogokra” című konferenciáról Dr. Török Bernát szervezőt, az NKE intézetvezetőjét, az Eötvös József Kutatóközpont igazgatóját kérdeztük.

A mesterséges intelligencia és az alapjogok kérdései első hallásra viszonylag távolinak tűnnek: az egyik a műszaki tudományok, a másik a jog világába tartozik – vagy ez a távolság csak látszólagos?

E területek egyre közelebb kerülnek egymáshoz. A mesterséges intelligencia alkalmazása mára olyan szintet ért el, hogy annak hatása az egész társadalom számára húsba vágó kérdés, immár az alapvető jogok terén is. Ma már nem halogatható a kapcsolódó szabályozási problémák kérdésének következetes felvetése és megoldása. Mind több területen használunk olyan technológiát, olyan informatikai eszközöket, ami a legalapvetőbb jogainkat érinti. A konferencia a különféle szektorális alkalmazások egységes vizsgálata tekintetében úttörő Magyarországon.

Védtelen magánélet

Melyek azok a legfontosabb alapjogok, amelyeket a mesterséges intelligencia alkalmazása érint?

A mesterséges intelligenciának általában véve is vannak átfogó, horizontális alapjogi kérdéskörei, amelyek bármelyik alkalmazási forma esetében felmerülnek. Ilyen az adatvédelem, a személyes adatokhoz való jog, hiszen ezen alkalmazásoknak tömeges az adatigényük, nagy mennyiségben használnak érzékeny adatokat. Ugyanígy minden felhasználás felveti az ember és gép viszonyának a kérdését, aminek például az emberi méltóság felől közelítve egészen biztosan alapjogi vonatkozásai is vannak. Az a kérdés például, hogy az algoritmizált döntéshozatali eljárások könnyen diszkriminatív eredményre vezethetnek, már az alapjogi gondolkodás homlokterében áll. Ezeken a horizontális megközelítéseken túl az egyes speciális területeken alkalmazott különböző mesterséges intelligenciák különféle – szektorális – alapjogi vonatkozásokat érintenek.

Melyek lehetnek ezek?

Ilyen a személyes szabadság kérdése, a magánélethez való jog, illetve a tisztességes eljáráshoz való jog; a különböző biztonsági alkalmazások problematikája, a térfigyelő kamerák adatvédelmi kérdései, a bűnüldözés és a mesterséges intelligencia összefüggései; továbbá a munka világában használt informatikai megoldások és a szociális biztonsághoz való jog viszonyrendszere. A munkához való viszonyt ugyanis alapvetően alakította át a digitális eszközök megjelenése. Eltűnőben van a szó hagyományos értelmében vett munkaidő, egyre inkább elvárás a munkáltatók részéről, hogy a munkavállaló a szabadidejében se távolodjon el teljesen a napi munkavégzéstől, a munkakörében hirtelen felmerülő, megoldandó problémáktól – sokszor súlyosan sértve az addig gondosan körülbástyázott magánélet védettségét. Szintén jelentős kérdéskör, hogy a szólásszabadsággal miként egyeztethetők össze azok az algoritmizált döntéshozatalok, amelyek a mindig kontextusfüggő emberi kifejezést próbálják mesterséges intelligencia-alkalmazásokkal keretek közé terelni, moderálni, szűrni. De az egészségügyben használt alkalmazások, robotok esetében is szenzitív területen járunk: vajon hol húzhatók meg az életünk, az életminőségünk, a személyes egészségünk legérzékenyebb kérdései esetében a gépek és az emberek által hozott döntések határai?

Gátat szabni

Hol tart ma a tudomány a mesterséges intelligenciával kapcsolatos alapjogi kérdések leírásában, s meddig jutott már el a szabályozással kapcsolatos útmutatások megfogalmazásában?

Az Európai Unió adatvédelmi rendelete, a sokat emlegetett GDPR bizonyos tekintetben már reagál az automatizált döntéshozatalra – vagyis arra a helyzetre, amikor egy gép az adatok tömeges értékelését követően önállóan hoz egy döntést –, de egyre fontosabb kérdés a kutatók körében, hogy ez az eddig megalkotott szabályrendszer mennyire alkalmas arra, hogy érdemben reagáljon a mesterséges intelligencia használatának legújabb kihívásaira. Korábban elképzelhetetlen mennyiségű adatunkat kezelik például magánpiaci szereplők: a közösségi médiaszolgáltatóktól kezdve informatikai cégeken keresztül a magánkézben lévő egészségügyi ellátó intézményekig. S bár az adatvédelmi szabályozás, a GDPR próbál gátat szabni a hömpölygő árnak, nem tűnik úgy, hogy hogy egyedül képes lesz megvédeni érdekeinket.

Itt arra gondol például, hogy egy általam használt keresőprogram az én összes internetes keresésem alapján személyi profilt készít rólam, az érdeklődési körömről, s ezt a profilt eladhatja más piaci szereplőknek?

Igen, ez például egy olyan terület, ahol nem látszanak hatékonyan működni az eddigi védelmi mechanizmusok. A keresőmotorok esetében, mint ahogy sok más hasonló új technológiai szolgáltatás esetében, a nekünk nyújtott szolgáltatás személyre szabott, jobb minőségére hivatkozva adataink folyamatos kezelésére kérnek hozzájárulást. De ez nem lehet korlátlan. Egyre több kutató hangsúlyozza, hogy a GDPR eszközrendszere sokszor már kevés. A formálisabb, technikai megközelítések, a hagyományos adatvédelmi hozzájáruló nyilatkozatok nem mindig adnak érdemi választ a hétköznapok mesterséges intelligencia használatának problémáira.  A GDPR jó eszköz arra, hogy a széles közvélemény adathasználati tudatosságát erősítse. De egy-két kis négyzet kipipálása ma már nem lehet valódi válasz a bonyolult adatvédelmi kihívásokra. Pár formális kérdés nem hozza olyan helyzetbe a felhasználót, hogy érdemben tájékozódjon: mire számíthat, mi történik majd az adataival, amikor egy szolgáltatást igénybe vesz. A kutatók egyre inkább azt keresik, milyen egyéb adatvédelmi kötelezettségeket lehetne még előírni a szolgáltatóknak.

Tévedés vs. szükségesség

Hol tartanak az ezirányú kutatások?

Az egyik lehetséges álláspont szerint a közösségi médiában például megoldás lehet a személyes adatkezelésre egyfajta bizalmi kötelezettség telepítése. Eddig is léteztek a jog világában azok a bizalmi helyzetek, amikor valaki nem azért nem tehetett valamit a hozzá forduló ügyfél adataival, mert az ügyfél nem járult hozzá – például orvos-páciens vagy ügyvéd-ügyfél viszonyban – hanem mert az adott foglalkozás szabályrendszere eleve kizárta a személyes adatok bizonyos használatát. Ennek a mintájára a tömeges adatokat használó szolgáltatások esetében sem elképzelhetetlen a tevékenységükkel eleve együtt járó korlátok felállítása.

Az Ön által moderált szekció központi kérdésköre az arcfelismerés – ez például miként érintheti az alapjogokat?

A mozgásunk nyomon követése már több évtizede fontos személyiségi jogi kérdés – az arcfelismerő rendszerek elterjedése azonban ezt még hangsúlyosabbá teszi. A képmásunk felhasználhatósága központi kérdés: mikor, milyen esetben lehessen az egyént nyomon követni, milyen céllal lehessen azonosítani az arca segítségével – hova hatolhatnak be a kamerák, mikor van megfelelő indok ezek alkalmazására? Ne felejtsük el: ezek a rendszerek, legyenek bármilyen pontosak, bizony tévedni is tudnak, s az ilyen hibának súlyos következményei lehetnek, akár a személyes szabadság korlátozása terén. Tehát a tévedés is fontos fogalom a kérdéskör tudományos megközelítése során. A másik fontos fogalompárt, a szükségesség és az arányosság kérdését pedig alapjogi kultúránk hozza elénk. Egyfelől belátjuk, hogy a hatékony bűnüldözéshez, a terrorizmus elleni eredményes küzdelemhez elengedhetetlenül szükséges a személyi azonosításra szolgáló rendszerek tökéletesítése. De az emberjogi-alapjogi érzékenységünk mégis csak azt mondatja velünk, hogy a szabadság köreinek is meg kellene maradniuk… Hatékonyság, biztonság az egyik oldalon – a korábban kialakított alapjogi mércék a másikon: valamit kezdeniük kell egymással. Ezért is olyan fontos tudományos alapossággal, minél sokrétűbb módon körüljárnunk a problémát.

Névjegy

Dr. Török Bernát

  • a Nemzeti Közszolgálati Egyetem Eötvös József Kutatóközpontjának igazgatója,  az Információs Társadalom Kutatóintézet vezetője, egyetemi docens.
  • 1998-ban érettségizett a budapesti Piarista Gimnáziumban, 2003-ban szerzett jogi diplomát a Pázmány Péter Katolikus Egyetemen.
  • Korábban dolgozott többek között az Alkotmánybíróság főtanácsadójaként, az Országos Rádió és Televízió Testület kabinetfőnökeként, s az amerikai Yale Law School vendégkutatójaként is.
  • Az NKE-n 11 éve oktat. Kutatási területe a médiajog, az alkotmánybíráskodás, az információs társadalom jogi összefüggéseinek vizsgálata és a szólásszabadság kérdésköre. 
Témakörök: alapjogok, digitalizáció, mesterséges intelligencia, személyiségi jogok, térfigyelő kamerák, Török Bernát
Egyetemes tudomány

Okostelefon-függőség

Részletek egy friss kutatás eredményeiről.

Könyvtár

Milyen lesz a digitális közteherviselés?

A közteherviselés a XXI. században komoly kihívások elé néz. Recenzió.

ÖT PERC EURÓPA BLOG

Új javaslatok születtek a digitális piac felelősségi szabályainak korszerűsítésére

Körforgásos MI-felelősség.

nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT