Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Taraczközi Anna

Az EU kutatási keretprogramjának megújítása

Középpontban a „dual‑use by design”.

Taraczközi Anna 2025.07.04.
Navracsics Tibor

Negyven éve leng

Az európai együttműködés egyik leghatásosabb szimbóluma.

Navracsics Tibor 2025.07.03.
Pató Viktória Lilla

Hogyan teljesít Magyarország a digitális évtizedben?

Összehasonlító áttekintés a 2024-es és 2025-ös Digitális Évtized Helyzetéről Szóló Jelentések alapján.

Pató Viktória Lilla 2025.07.02.
Lábody Péter

MI-útmutató

Komoly kihívássá vált az etikus és átlátható működés.

Lábody Péter 2025.07.01.
Ludovika.hu

Dánia az EU élén

Skandináv ambíciók a lengyel elnökség után.

Ludovika.hu 2025.07.01.
ITKI BLOG
Ződi Zsolt
Ződi Zsolt
tudományos főmunkatárs, NKE Információs Társadalom Kutatóintézet
  • 2021.05.07.
  • 2021.05.07.

Az Európai Bizottság Mesterséges Intelligencia Kódex-tervezete

A mesterséges intelligencia európai, de talán azt is mondhatjuk, világszintű szabályozásának folyamata fontos mérföldkőhöz érkezett. Elkészült az európai Mesterséges Intelligencia Kódex (Artificial Intelligence Act) tervezete.

Ebben a rövid blogbejegyzésben csak a legfontosabb elemeket ismertetjük, de később még bizonyára más bejegyzésekben is kitérünk a részletekre.

Az elnevezésről

Egyelőre nem ismert, hogy hogyan fogják az Act szót fordítani. Nagyon valószínűtlen, hogy a kézenfekvő „törvény” kifejezéssel. A cikk szerzője a „kódex” szócskát találta a legtalálóbbnak, mivel a dokumentum kiemelt jellegét jól hangsúlyozza. 

A mesterséges intelligencia néhány éve az EU érdeklődésének centrumában van. A témakör először az “adatgazdaság“, majd a robotika kontextusában merült fel, a 2010-es évek közepén, általában olyan felhanggal, hogy az EU lemaradásban van a világ többi részéhez képest, és ezt a lemaradást az egységes piac még hatékonyabb működésének elősegítésével, a gátak, korlátok lebontásával, kutatás-fejlesztéssel és más eszközökkel kell ösztönözni.

Az EU attitűdje az MI-vel kapcsolatban 2018 környékén kezdett megváltozni, és az egységes piac, gazdaságösztönzés, versenyképesség kulcsszavakat a kockázat, emberi jogok, etika kifejezések váltották fel. Az egységes MI szabályozás igénye nagy hangsúlyt kapott az Európai Bizottság elnökének, Ursula von der Leyennek programjában is, ahol már artikulálódik az a dilemma is, hogy az MI fejlesztése és ösztönzése egyensúlyban kell legyen a kockázatok kezelésével és az etikai megfontolásokkal.

Ebben az összefüggésrendszerben érdemes vizsgálni az MI kódexet, amelynek egyelőre csak az anyagi jogi rendelkezéseit mutatjuk be (érdemes azonban megemlíteni, hogy a tervezet igen részletes eljárási és szervezetstatuáló rendelkezéseket is tartalmaz, amelyek egyébként terjedelemre nagyobb részt tesznek ki az anyagi jogi szabályoknál).

A kódex a horizontális, (értsd: mindenféle területen, mindenféle MI-re vonatkozó) szabályozás minimumát célozza meg, méghozzá oly módon, hogy az MI-ket kockázati osztályokba sorolja.

A tervezet megkülönböztet teljesen tiltott MI-alkalmazásokat, kockázatos MI-alkalmazásokat, amelyekre kötelező szabályokat alkot, – ezek teszik ki a normaszöveg anyagi jogi részének legnagyobb hányadát -, és kevésbé kockázatos, de valamilyen szempontból még mindig kiemelt figyelmet érdemlő egyéb  alkalmazásokat, ahol csak néhány, viszonylag könnyen betartható szabállyal operál, végül semelyik kategóriába nem eső MI-alkalmazásokat, amelyek „fékentartását” magatartási kódexekre, lényegében tehát önszabályozó mechanizmusokra bízza.

Az MI-t a tervezet három konjunktív feltétellel definiálja: az MI a mellékletekben található, valamelyik technológiát használó (gépi tanulást, logikai-, vagy tudásbázis alapú – szabályalapú – technológiát, vagy statisztikai becslést alkalmazó), egy ember által definiált célrendszert figyelembe véve működő rendszer, amelynek kimeneti oldalán (példálózó jelleggel) az alábbiaknak kell megjelenni: tartalom, előrejelzés, ajánlás, döntés. Mindezek az outputok „befolyásolják a környezetet, amellyel kapcsolatban vannak”.

A tervezet, ahogy fentebb említettem, négy MI kategóriát állít fel. Az első kategória a tiltott MI-k kategóriája. Ezek az alábbiak:

  • tudatalatti manipulálásra képes MI-k;
  • bizonyos sérülékenységeket (például fogyatékosságot) kihasználó MI-k;
  • társadalmi pontozást megvalósító MI-k;
  • arcfelismerést közterületen végző MI-k.

Igen érdekes a magas kockázatú MI-k szabályozása. Magas kockázatúnak akkor minősül egy MI, ha vagy biztonsági komponense egy egyébként is szorosan szabályozott termékcsoportnak (ezeket a II. melléklet sorolja fel a játékoktól a vízi járműveken keresztül az orvosi műszerekig), vagy „saját jogon” képvisel kockázatokat, különösen azért, mert olyan területen tevékenykedik, amely az emberi jogokat érinti.

Ez utóbbi lista nyolc területen kéttucatnyi konkrét alkalmazást sorol fel, olyanokat, mint például a természetes személyek biometrikus azonosítását, kritikus infrastruktúrák (közlekedés, gáz, víz-, villanyellátás) vezérlését végző MI-k, és még néhány, különösen az amerikai szakirodalomból ismert területeken „tevékenykedő” MI (így a munkaerő felvétel, egyetemi felvétel, hitelbírálat és a bírói munkához adott tanácsok területén működő alkalmazások).

A tervezet hét, az MI-hez kötődő etikai kódexekből már jól ismert előírást vagy elvet igyekszik aprópénzre váltani a magas kockázatú MI-k esetén. Ezek a következők.

  1. A magas kockázatú MI-ket mindig kockázatértékelési rendszerekkel együtt kell működtetni.
  2. A magas kockázatú MI-ket megfelelő adatmenedzsment (data governance) rendszerekkel együtt kell működtetni. A tanító, validáló és tesztelő adatoknak „tisztának” kell lenni.
  3. A magas kockázatú MI-khez részletes dokumentációt kell csatolni.
  4. A magas kockázatú MI-khez az eseményeket naplózó rendszereket kell társítani.
  5. A magas kockázatú MI-knek átláthatóan kell működniük.
  6. A magas kockázatú MI-k felett mindig meg kell maradnia az emberi felügyeletnek és beavatkozási lehetőségnek.
  7. A magas kockázatú MI-knek meg kell felelnie a pontosság, a robosztusság és a kiberbiztonság követelményeinek.

A harmadik kategóriát a tervezet csak igen kurtán említi, ezek azok az MI-k, amelyek valamilyen szempontól még jelentenek ugyan kockázatot, de ezeket néhány átláthatóságot erősítő rendelkezéssel lehet kezelni. Ezeket a szabályokat az 52. cikk tartalmazza: az MI-nek mindig tájékoztatnia kell az embert, hogy MI-vel áll szemben (ez különösen a chatbotok esetén neuralgikus kérdés). Az érzelmek felismerésére képes rendszereknek úgyszintén tájékoztatniuk kell az érintetteket, s végül a deepfake videókat fel kell címkézni, tudatni kell, hogy gépi eszközökkel hamisított mozgóképről van szó. Ez egyúttal azt is jelenti, hogy ezek a kategóriák nem minősülnek önmagukban sem tiltottnak, sem magas kockázatúnak.

Végül az egyéb MI-ket a tervezet ún. szabályozási tesztkörnyezetek, és önként vállalt magatartási kódexek segítségével tervezi „kordában tartani”.

Amit elsőre röviden el lehet mondani a tervezetről, hogy mind a kockázatalapú megközelítés, mind a nem túl szigorú szabályozás rendkívül előremutatónak tűnik, és sok aggodalmat eloszlat. A tiltott listán szereplő MI-kel még bizonyosan lesz értelmezési probléma, és a magas kockázatú MI-k messze nem képeznek homogén csoportot. Különösen azoknál az MI-knél lehet sok vitára számítani, amelyek magáncégeknél fognak működni, és például hitelbírálatot, vagy munkaerő-kiválasztást támogatnak.


A következő blogbejegyzésekben megpróbáljuk a lehető legrészletesebben bemutatni a tervezet rendelkezéseit.

Témakörök: etikai kódex, Európai Unió, mesterséges intelligencia, versenyképesség
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT