Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Petruska Ferenc

Mit várhatunk a GPT-5-től az egyetemen?

Átfogó útmutató a kutatási feladatokhoz megfelelő MI-modell kiválasztásához.

Petruska Ferenc 2025.08.18.
Rab Árpád

A humanoid robotok jelenlegi piaci és technológiai trendjei

A humanoid robotok gyors ütemben terjednek a szolgáltatóiparban, az iparban és a mindennapi élet különböző területein.

Rab Árpád 2025.08.12.
Petruska Ferenc

Mesterséges intelligencia ügynökök kontra chatbotok

Melyiket milyen munkafázisban érdemes használni?

Petruska Ferenc 2025.07.28.
Tóth Bettina

Mennyire lesz „zöld” az új Közös Agrárpolitika?

Csorbát szenvedhet a mezőgazdaság az előttünk álló időszakban?

Tóth Bettina 2025.07.25.
Kalas Vivien

Közös nyilatkozat az uniós migrációs politika jövőjéről

Hat tagország szigorúbb migrációs politikát szorgalmaz.

Kalas Vivien 2025.07.24.
ITKI BLOG
Picture of Ződi Zsolt
Ződi Zsolt
tudományos főmunkatárs, NKE Információs Társadalom Kutatóintézet
  • 2024.04.29.
  • 2024.04.29.

A generatív mesterséges intelligencia szabályozása az MI rendeletben

Az előző blogbejegyzésemben ígéretet tettem arra, hogy áttekintem a generatív mesterséges intelligenciák (MI), a rendelet[1] szóhasználatában az „általános célú MI modellek” (mint a ChatGPT és a képrajzoló eszközök) szabályozását. Ebben a bejegyzésben – és valószínűleg még néhány ezt követőben – erre teszek kísérletet.

Két ok miatt is fontos erről a témáról minél többet beszélni. Az egyik, hogy egy hétköznapi ember számára a legtöbb MI lényegében láthatatlan. Hiába fut tucatnyi gépi tanuláson alapuló algoritmus mondjuk a Facebook használata közben, ezeket nem érzékeljük. A legtöbbünk „a” mesterséges intelligenciával a Chat GPT megjelenésekor szembesült, és máig a legtöbben ezzel, és a néha lenyűgöző tudású kép– és videogeneráló szoftverekkel azonosítják ezt a technológiát. A másik ok, ami miatt érdemes beszélni ezeknek az eszközöknek a szabályozásáról az, hogy rengeteg félreértés övezi a szabályozást, és fontos ezeket (elkezdeni) tisztázni. Az utóbbi időben sok előadást tartok ebben a témában, és szinte mindenhol megkapom ugyanazokat a kérdéseket: ugye az MI rendelet szabályozza hogy kinek a tulajdona a(z X képgenerálóval) rajzoltatott kép? Ugye az MI rendelet szabályozza, hogy nem lehet Chat GPT-vel beadandót íratni? Ugye az MI rendelet betiltja a deepfake-eket? És folytathatnám a sort. Erre a három kérdésre a válasz például meglepő módon egyértelműen mindháromra „nem”. Ezeket a kérdéseket az MI rendelet vagy nem szabályozza, vagy – mint a deepfake-ek esetében – csak tájékoztatási kötelezettséget ír elő. Az ok: az MI rendeletnek egyszerűen más a szabályozási logikája. Hogy mi ez a logika?

Ennek megértéséhez azzal érdemes indítani, hogy az MI rendelet eredeti, Bizottság által beterjesztett verziója nem tartalmazott semmilyen szabályt a generatív MI-kről. A kiindulópont az EU-ban már évtizedekre visszanyúló termékbiztonsági–termékmegfelelőségi gondolkodásmód volt, amelynek a legfontosabb jellegzetessége, hogy mindenekelőtt besorolja a termékeket az általuk képviselt kockázat alapján osztályokba, majd részletesen leírja, hogy milyen követelményeknek kell az egyes kategóriákba tartozó termékeknek megfelelni.

Pontosan ez történt MI rendszerekkel is: a rendelet három ilyen kockázati osztályt állapított meg: az „elfogadhatatlan”, a „magas”, a „kis (de még létező)” kategóriákat. (És persze létezik a „nemszabályozott” kategória is negyedikként.) Ezeket persze nem így fogalmazta meg, ezt az interpretációt már a kezdetektől burjánzó magyarázatok terjesztették el, a rendelet csak tiltott és magas kockázatú MI „gyakorlatokról” beszél, és egy cikkben olyan alacsony kockázatú rendszerekről, amelyek esetén csak tájékoztatási és átláthatósági kötelezettségek terhelik a szolgáltatókat vagy a rendszereket használókat (akiket a rendelet „alkalmazóknak” – deployers nevez). Ilyenek kis kockázatúak a chatbotok, amelyeknek tájékoztatni kell az embereket, hogy ők gépek, és a szintetikus tartalmakat előállító rendszerek, amelyeknek szintén meg kell jelölni szintetikus kimeneteiket. Utóbbiba tartoznak a deepfake képek, hangok és videók is.

A rendelet tehát egy elég vegyes kritériumrendszert alkalmaz. A tiltott és magas kockázatú rendszerek esetén nem konkrét MI rendszereket tilt be vagy szabályoz, hanem bármilyen MI-nek minősülő technológiát (azt most hagyjuk, mi különbözteti meg a „sima” szoftvert az „MI” szoftvertől, ez is külön megér majd egy blogbejegyzést), amennyiben vagy meghatározott funkciót lát el, célt követ vagy kimenetet produkál (arcfelismerés, szubliminális manipuláció, deepfake létrehozás), vagy valamilyen „fontos” életbeli szférában, területen használják (így például kritikus infrastruktúrák üzemeltetése vagy hitelképesség ellenőrzése a bankokban). 

A generatív MI-k másfél évvel a bizottsági szövegjavaslat után robbantak be a köztudatba, és azonnal háromféle módon is kihívást intéztek az MI rendelet addig senki által meg nem kérdőjelezett logikája ellen. Egyrészt itt olyan technológiákról van szó, amelyek mind a célok, mind a felhasználási területek szempontjából nehezen, illetve egyáltalán nem megfoghatók, mert többcélúak és több területen használhatók. Másrészt ezek a rendszerek teljesen újfajta, addig a jogalkotó fejében meg sem forduló konkrét problémákat és kockázatokat vetettek fel: például a szerzői jogilag védett tartalmak felhasználását a tanítás során, az általuk generált termékekhez fűződő felhasználási („tulajdon”)jogokat, és a „hallucinációs hajlamukat”, hogy csak hármat említsek. Végül harmadszor ezek a rendszerek már kész rendszerekként érkeztek meg az európai piacra, tehát a szabályozásnak az a logikája, hogy ha egy szoftvercég egy új MI-t akar kifejleszteni, akkor a fejlesztés első lépéseitől kezdve az MI rendelet előírásainak megfelelően fejlesszen és dokumentáljon, már nem volt érvényesíthető. 

Ezek tehát az előzmények és a problémák, amelyekkel a jogalkotó szembesült. Hogy kísérli megoldani ezeket? 

Először is definiálnia kellett, miről is beszél – ez sajnos egy jogszabálynál elkerülhetetlen és gyakran fájdalmas feladat. A rendelet úgy definiálja az általános célú MI-t (General Purpose AI Model, GPAIM), hogy az olyan MI modell, „amely különféle feladatok széles körének elvégzésére képes, valamint többféle downstream rendszerbe vagy alkalmazásba integrálható”. Hogy mi a különbség az „MI-rendszer” és az „MI-modell” közt, azt nem tartalmazza a szöveg, de a bevett szóhasználat szerint az MI-rendszer konkrét, felhasználói felülettel rendelkező szoftver vagy olyan szoftverkomponens, amely beépül más szoftverekbe, míg a modell szoftverek és adatok (általában hatalmas méretű adatbázisok) összekapcsolt egysége, amelyek együtt képesek bizonyos feladatokat elvégezni, és jellemzően azzal a céllal építették őket, hogy többféle, előre nem is látható más szoftverbe épüljenek be. Ezek a szoftverek a definíció által emlegetett ún. downstream (magyarul kb. „alkalmazott”) szoftverek, mint amilyen egy csevegőrobot, dokumentumszerkesztő, keresőmotor, moderálószoftver, a programozók munkáját segítő „co-pilot” vagy képrajzoló- és manipuláló szoftver. A ChatGPT-t alapul véve, ebben a GPT (General Pretrained Model) értelemszerűen a modell, míg a ChatGPT már egy downstream MI-rendszernek minősül. Vagy mondjuk az Adobe Photoshop a downstream rendszer, és mögötte a Firefly a képgeneráló modell. A modell és a szoftver megkülönböztetésével a jogalkotónak nem kellett feladnia az eredeti, termékmegfelelőségi alapú koncepciót. Ez azt jelenti, hogy mindegy, hogy én egy hitelbírálati szoftvert teljesen a nulláról fejlesztve vagy egy általános modellre építve hozok létre, az így is, úgy is magas kockázatú lesz, és nekem kell betartanom az MI rendeletben írt szabályokat.   

Látható, hogy ez a szabályozási logika azonban lényegében ellehetetlenítené mindazokat, akik általános modellekre fejlesztenek. Hiszen hogyan tudna megfelelni a szigorú termékmegfelelőségi előírásoknak az, aki egy számára teljesen ismeretlen fekete dobozt (azaz az általános modellt) épít be a szoftverébe? Például hogyan tudja bizonyítani és garantálni, hogy a rendszer minden lényeges állapotváltozást naplóz, ami a magas kockázatú rendszereknél előírás. Ezért az általános célú MI modell-szolgáltatók számára a legfőbb kötelezettség ez alapján lényegében kétféle dokumentáció elkészítése lett.  

Az első a nemzeti hivatalnak, illetve az uniós MI-hivatalnak szól. Erről a rendeletben egy külön melléklet szól, minden elemét nem tudom itt ismertetni, csak néhány fontos pontot emelek ki: le kell írni a dokumentációban a modell rendeltetése szerint ellátandó feladatokat, és hogy milyen MI rendszerekbe integrálható, a paraméterek számát és az architektúrát (a rendszer felépítését), valamint egy sor információt a fejlesztési folyamatról. Így például, hogy mi volt a tanítási folyamat és milyen adatokat használtak a teszteléshez, milyen erőforrásokkal fejlesztették, és mekkora az energiafogyasztása. A nagyon kockázatos MI-modellek szolgáltatóinak ezen felül még olyan információkat is rendelkezésre kell bocsátaniuk, mint az értékelési stratégiák részletes leírása – azt a folyamatot, amikor pl. a ChatGPT-t olcsó afrikai munkások tanították arra, hogy ne legyen mondjuk rasszista. 

A második dokumentációt az MI modellek szolgáltatóinak azok számára kell elkészíteni, akik szoftvereket akarnak építeni a modellekre, azaz a downsteam provider-eknek, épp azért, hogy meg tudjanak felelni az MI rendelet követelményeinek. Ez a dokumentáció nagyban hasonlít az előzőre, de olyan pontokkal egészül ki, mint pl. hogy „a modell miként működik együtt olyan hardverrel vagy szoftverrel, amely nem része magának a modellnek, vagy miként használható fel az együttműködésre”. 

Ezen felül a jogalkotók felismerték, hogy az általános célú modellek nem képviselnek egyforma kockázatot, ezek közt vannak viszonylag ártalmatlanok, és vannak olyanok, amelyeknek hatalmas a felhasználói bázisa és emiatt társadalmi hatásuk lehet. Viszont az MI modellek esetén nem lehetett a célból vagy a felhasználási területből kiindulni, így a jogszabály eredeti felosztásától (tiltott, magas kockázatú stb.) független új felosztást vezettek be az általános célú MI-modellekre. Eszerint a legfontosabb, és az előállítókra nézve a legtöbb kötelezettséget rovó kategória a „rendszerszintű kockázatokat jelentő MI-modellek”. Ezek azok a nagy modellek, amelyek „nagy hatású képességekkel rendelkeznek,” amely képességeket vélelmezni kell, ha a tanításhoz használt kumulált gépi teljesítmény meghaladt egy meghatározott mértéket. Vannak azután a „normál” modellek, amelyek ezen határ alatt vannak, és ezen belül is könnyítést kaptak azoknak a modelleknek a szolgáltatói, amelyeket „szabad és nyílt forráskódú licenc alapján bocsátanak ki”, amely magában foglalja a modell „paramétereit – beleértve a súlyokat, a modellarchitektúrára vonatkozó információkat és a modellhasználatra vonatkozó információkat”.

A rendszerszintű kockázatokat jelentő szolgáltatókat a fenti, főleg dokumentációs kötelezettségeken felül egy sor többletkötelezettség terheli, így például „modellértékelést kell végezniük a technika állásának megfelelő, szabványosított protokollokkal és eszközökkel összhangban, ideértve a modell támadó szempontú tesztelésének elvégzését és dokumentálását”, illetve nyomon kell követniük és jelenteniük a váratlan eseményeket (incidenseket). 

Ha visszatérünk a három kiinduló kérdésre, így már érthető, hogy az MI rendelet miért nem rendezi, vagy nem rendezi úgy ezeket a kérdéseket, ahogy azt mi egyszerű hétköznapi állampolgárok gondolnánk. Azért, mert ez a rendelet az MI rendszerek (mint „termékek”) előállításának és biztonságos használatának szabályait tartalmazza – leegyszerűsítve: mit és hogyan kell a „gyártóknak” tenniük és dokumentálniuk annak érdekében, hogy a „termék” biztonságos legyen. A három említett példa egyike sem a „gyártó” felelőssége. Az, hogy az egyetem hogyan küzd (és egyáltalán küzd-e) a ChatGPT-vel íratott beadandók és szakdolgozatok ellen, nagyrészt az egyetem belső ügye, amelynek szabályozása során el kell döntenie, hogy akar-e és tud-e küzdeni az ellen, hogy a hallgatók ilyen rendszereket használjanak, vagy inkább integrálja ezek használatát az oktatásba. Az, hogy le lehet-e védetni (nem nálunk, nálunk nem a „levédéssel” lesz az „enyém” egy alkotás) egy művet sajátomként, ha egy gép köpte ki, az adott ország szerzői jogi szabályai (és esetleg a perek nyomán a bíróságok egyedi esetekben) fogják majd kimondani. Végül pedig a deepfake esetén, akárcsak a két előző esetben, az MI rendelet csak annyit mond, hogy a szintetikus tartalmakat meg kell valahogy jelölni. Hogy ez tényleg bekövetkezik-e, illetve lesznek-e más jogszabályok, amelyek egyes területek esetleg betiltják a deepfake-et, azzal az MI rendelet már nem foglalkozik. 

Sokaknak talán csalódást jelentenek a fentebb leírtak. Azonban azt érdemes látni, hogy a közeljövőben a ChatGPT nyomán jelentkező kérdésekhez és dilemmákhoz nagyon hasonló újabb dilemmák fognak jelentkezni, és az élet különböző területein levő szervezeteknek, embereknek maguknak kell majd elgondolkodniuk, hogy hogyan kezelik ezeket. Ezt a gondolkodást nem tudjuk megspórolni, az MI rendelet sajnos nem fogja helyettünk megmondani. 

[1] A rendelet legutolsó szövegverziója egy „Corrigendum” (Helyesbítés) formájában található meg több nyelvi verzióban is a Parlament honlapján. Én is ebből a (magyar) szövegverzióból dolgoztam. 

Témakörök: Európai Unió, jog, mesterséges intelligencia, MI, szabályozás
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT