• MAGAZIN
  • BLOGTÉR
  • PODCAST
  • WEBSHOP
  • E-TANANYAGOK
  • FOLYÓIRATOK
  • RÓLUNK
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • WEBSHOP
  • E-TANANYAGOK
  • FOLYÓIRATOK
  • RÓLUNK
Keresés
Bezár
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • WEBSHOP
  • E-TANANYAGOK
  • FOLYÓIRATOK
  • RÓLUNK
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • WEBSHOP
  • E-TANANYAGOK
  • FOLYÓIRATOK
  • RÓLUNK
Nyáry Gábor

A Kapitólium ostroma: a kiberbiztonsági szakértők rémálma

Milyen károk keletkezhettek?

Nyáry Gábor 2021.01.15.
Nagy Dénes András

Magyar érdekérvényesítés az Európai Unióban történészi szemmel

A magyarországi tudományos közbeszédben az Európai Unió jövőjéről szóló vitákban gyakran szembeállításra kerül három jövőkép, név-szerint a „Nemzetek Európája”, a „Polgári Európa” és az „Európai Egyesült Államok” eszményképe. E jelenkori szellemi vitának

Nagy Dénes András 2021.01.14.
Hulkó Gábor

Jogállami vita vagy közpolitikai csetepaté?

Jogi kérdés vagy szubjektív értékítélet?

Hulkó Gábor 2021.01.14.
Hegedüs Csilla

Megmutatni Európában a magyar kultúrát – határok nélkül

A 2020-as esztendő óriási kihívás elé állította az egész emberiséget, mégis, sok szempontból sikeres esztendő volt. Az erdélyi, székelyföldi magyar kultúra szempontjából nagy siker az,

Hegedüs Csilla 2021.01.13.
Nyáry Gábor

Háború és béke a kibertérben (1. rész)

Attribúció SolarWind, feltámad a NapSzél Az elnökválasztáshoz kapcsolódó belpolitikai feszültségek, a hét közepén kirobbant véres zavargások most háttérbe szorítanak minden más hírt az Egyesült Államokban.

Nyáry Gábor 2021.01.13.
ITKI BLOG
Ződi Zsolt
Ződi Zsolt
tudományos főmunkatárs, NKE Információs Társadalom Kutatóintézet
Megosztás itt: linkedin
Megosztás itt: twitter
Megosztás itt: facebook
  • 2020.08.24.
Megosztás itt: linkedin
Megosztás itt: twitter
Megosztás itt: facebook
  • 2020.08.24.

A mesterséges intelligencia szabályozásának dilemmái

1. rész: A mesterséges intelligencia (jogi) definíciója

Korábbi blogbejegyzésemben, amelyben a mesterséges intelligenciára vonatkozó, egyre szaporodó etikai kódexek hiábavalóságát részleteztem, egyúttal ígéretet tettem arra, hogy ezeknek a dokumentumoknak a homályos megfogalmazású, általános elvei helyett néhány konkrét és kézzelfogható javaslatot teszek a mesterséges intelligencia szabályozására. A javaslatokat öt téma köré rendeztem, és öt rövid blogbejegyzés formájában bocsátom vitára, invitálva mindazokat a szakmákat, akiknek van mondanivalójuk minderről.

Az öt téma a következő:

  1. Mi az MI meghatározása?
  2. Kik legyenek az MI szabályozásának címzettjei?
  3. Az MI-szabályozás módszere: jogi, etikai, vagy technológiai szabályok?
  4. Általános vagy ágazati szabályozás? Van-e értelme egy általános MI-törvénynek?
  5. Mi legyen a meglevő megfelelőségi szabályokkal?

Ez az első blogbejegyzés az MI (jogi) meghatározásának problémájáról szól.

Először is: egyáltalán nem triviális, hogy szükség lenne a jogban az MI valamiféle definíciójára. Ezzel kapcsolatban érdemes felidézni Cassie Kozyrkov, a Google döntéstudományi főnöke tavaly megjelent írását, amely helyesen mutat rá, hogy a legtöbb etikai kockázat, amelyet az ismert etikai kódexek az MI-vel kapcsolatban emlegetnek, valójában nem is MI-specifikus. Bármelyik etikai kódex bármelyik pontján kicserélhetjük az MI szót „technológiára”, értelmes kijelentést kapunk. Akkor hát nem is lenne szükség egyáltalán arra, hogy az MI-t megkülönböztessük a technológiától általában? Az általános technológiaszabályozás (amely jellemzően az emberek biztonságát igyekszik garantálni), elegendő lenne? A helyzet nem ilyen egyszerű.

Kozyrkov szerint az MI specifikusan veszélyes voltát ugyanis elsősorban az adja, hogy a végső termék nem sorról-sorra történő kódolással születik, hanem úgy, hogy a programozó példákat (adatállományokat) mutat a gépnek, amelynek nyomán azután létrejön – például egy neurális háló neuronjainak besúlyozásával – egy valamilyen feladat megoldására alkalmas szoftver. Az MI valójában – mondja – a programozó munkáját automatizálja. Persze nem úgy, hogy kódot ír helyette, hanem inkább úgy, hogy az adatok alapján jön létre a szoftver működő, végleges verziója. Ez pedig az emberi meggondolatlanság és „trehányság” hatásait és veszélyeit – amely egyébként a technológiának mindig is tulajdonsága volt – új szintre emeli, még jobban felerősíti, hiszen már nem kell „félrekódolni” valamit, elegendő csak rossz adatokat használni tanítóadatként vagy túl korán abbahagyni a tanítást.

Ezért mindazon definíciók helyett, amelyek eddig forgalomban voltak, pl. a híres Russel-Norvig könyv „emberként/racionális lényként cselekedni/gondolkodni képes ágens” vagy azok helyett, amelyek az „autonómiát”, azaz a külső ingerekre történő adekvát reagálás képességét emelik ki, a lényeg az MI esetén a „befejezetlenség”, az öntanulási képesség, és emiatt a kiszámíthatatlan, nem-determinisztikus működés. Ez a felismerés egybevág azzal a tendenciával, amelyet más anyagokban, pl. a már korában blogbejegyzésként ismertetett OECD-s MI-anyagban is hangsúlyos, hogy ami valóban MI-specifikus, az a gépi tanulás, azaz minden olyan számítástechnikai módszer, amelyben ember felügyelete nélkül, közvetlenül a tanítóadatokból keletkeznek végrehajtható kódok.

Milyen következménye van mindennek a szabályozásra nézve? Először is az, hogy az etikai kódexek legtöbb követelményét a meglevő technológiaszabályozás is kiválóan kezeli. Másodszor azonban az, hogy az adat és a jól kiválasztott tanítóadat (a példák), kulcsfontosságúvá válnak. A kód előállítójának felelőssége pedig annyiban változik, hogy nem a kódolásért (a hibátlan programért), hanem elsősorban az adat minőségéért és a példák helyes kiválasztásáért kell felelnie.

Ha az MI megkülönböztető jegye a gépi tanulás („minden olyan rendszer, amely gépi tanuláson alapszik”), ez egyúttal megold néhány olyan dilemmát is, amely az MI-diskurzusban jelenleg megoldatlanként szerepel. Ilyen például a megmagyarázhatóság problémája. A gépi tanuláson alapuló rendszereknek nem úgy kell megmagyarázhatónak lenniük, ahogyan egy jogi döntést megindokolunk (az adott esetet egy szabály aleseteként magyarázzuk meg), hanem inkább úgy, ahogy a precedensjogok működnek, ahol – leegyszerűsítve – egy döntést egy hasonló példára mutatva támasztunk alá. Ugyanígy az elfogult MI problematikája is elesik, hiszen a rendszernek mutatni kell olyan példákat is, amelyek az előítéletekkel szembe mennek, és szisztematikusan kell tesztelni ilyen példákra is. Ez a megközelítés abból a szempontból is előnyös, hogy nemcsak az MI kimeneteit – és elsősorban a jogsértő vagy károkozó kimeneteket – lehet felelősségi szempontból kezelni a segítségével, hanem sokkal korábbi fázisban lehet „preventív” szabályokat alkotni az adatminőségre, a megfelelő tanító adatokra, sőt, ezen rendszerek szisztematikus előzetes bevizsgálására, auditjára vonatkozóan is.

Természetesen itt nem arról van szó, hogy minden gépi tanuláson alapuló rendszert előzetesen be kellene vizsgáltatni és engedélyeztetni. De lehet találni olyan formulát, amely alapján kockázati osztályokat lehetne felállítani. Érdemes pl. betekinteni az Információbiztonsági törvény végrehajtási rendeletébe, amely egyébként a 2016/1148 EU irányelv szempontrendszere alapján sorolja osztályokba a rendszereket és szervezeteket. A gépi tanuláson alapuló rendszereket véleményem szerint ugyanígy lehetne a felhasználók száma, a hatásuk földrajzi kiterjedése, a társadalmi és gazdasági folyamatokra, a jogalanyok vagyoni és személyi viszonyaira gyakorolt hatás stb. szempontjából szintekbe sorolni, és ezen szintek alapján egyre komolyabb követelményeket megfogalmazni, a legkockázatosabbak esetén akár előzetes teljes körű bevizsgálást is előírni. Hiszen nyilvánvaló, hogy egy online zenebolt ajánlórendszere kevésbé bír téttel, mint mondjuk egy taxiapplikáció fuvarokat elosztó algoritmusa (amely például a sofőrök keresetét komolyan befolyásolja), de ennél is nagyobb a tét, amikor mondjuk egy, az előzetes letartóztatás elrendelésére ajánlásokat tevő vagy egy önvezető járművet vezérlő algoritmus működéséről beszélünk.

Összefoglalva tehát, az MI szabályozásának végső célja ugyanúgy a technológia biztonságának, emberre való veszélytelenségének megteremtése, mint a már ismert technológiaszabályozásé. A plusz kockázat és veszély elsősorban a gépi tanuláson alapuló rendszerekből fakad, ahol a tanítóadatok minősége ugyanolyan fontos – ha nem fontosabb –, mint maga a rendszer, amelyet tanítunk. Ahhoz, hogy az MI kockázatait hatékonyan tudjuk kezelni jogi eszközökkel, a szabályozásnak az adatminőségre, a tanítás folyamatára és a gépi tanuláson alapuló rendszerek differenciált – a kockázatok nagyságát szem előtt tartó – előzetes tesztelésére, bevizsgálására és tanúsítására (auditjára) is ki kell terjednie, természetesen a hagyományos, sokat tárgyalt jogi aspektusok (pl. a felelősség) mellett.

Témakörök: gépi tanulás, jogi szabályozás, mesterséges intelligencia

LUDOVIKA EGYETEMI KIADÓ

KAPCSOLAT

1089 Budapest, Orczy út 1. 
E-mail: info@ludovika.hu

HÍRLEVÉL FELIRATKOZÁS

A feliratkozással elfogadom az Adatvédelmi tájékoztatóban közölt feltételeket.

IMPRESSZUM

ADATVÉDELMI TÁJÉKOZTATÓ

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled

Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.

Non-necessary

Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.