Az EU mesterséges intelligencia kódex-tervezete (1. rész)
Előző blogbejegyzésemben hírül adtam, hogy elkészült a mesterséges intelligencia szabályozását célzó átfogó EU rendeletszöveg. Ígéretet tettem, hogy a Kódex rendelkezéseit részleteiben ismertetem, és csak az érdekesség kedvéért közben a korábbi, MI-ről szóló blogbejegyzés-sorozat előrejelzéseinek helyességét is leellenőrzöm.
Az elkövetkező hetekben hat részletben foglalom össze a meglehetősen terjedelmes és bonyolult jogszabály rendelkezéseit. Ebben az első bejegyzésben azt magyarázom el, hogy mit kell a rendelet szerint MI-nek tekinteni.
A hat témakör
- Az MI (jogi) fogalma;
- A kódex hatálya;
- Tiltott MI-k;
- Nagy kockázatú rendszerek;
- A nagy kockázatú rendszerekre vonatkozó követelmények és eljárás;
- Eljárási, szervezeti és végrehajtási kérdések
Ahogy azt már korábbi blogbejegyzésemben is jeleztem, az MI szabályozásának kiinduló kérdése, hogy egyáltalán mit tekintünk MI-nek. Azokkal a definíciókkal szemben ugyanis, amelyek az „autonómia”, „emberszerű viselkedés”, „emberi gondolkodás” és hasonló más bizonytalan kategóriákkal próbálták leírni az MI-t, a jognak sokkal pontosabb definícióra van szüksége. Régóta biztosnak tűnik, hogy ez a jogi definíció valamilyen konkrét technológiával fogja azonosítani az MI-t.
Az idézett blogbejegyzésben én azt valószínűsítettem, hogy a gépi tanulás lesz ez a technológia. Ugyanebben a blogbejegyzésben az MI kockázati osztályokba sorolását is felvetettem (ismét csak egy technológiaszabályozási terület, az információbiztonság példáját szem előtt tartva), és a gépi tanulásnak az adatokkal való szoros összefüggése miatt azt is felvetettem, hogy a szabályozás központi eleme lesz a megfelelő adatok biztosítása, az adattisztaság, az adat-kiegyensúlyozottság, stb. megkövetelése.
A három jóslat közül csak a legelső nem bizonyult száz százalékig helytállónak, a második kettőt elég pontosan eltaláltam (de ezekről majd a későbbi blogbejegyzésekben szólok).
A tervezet ugyanis az MI-t három fogalmi elemmel definiálja:
- Az MI-nak meghatározott technológiákat kell alkalmaznia,
- ember által kijelölt célokat (önállóan) kell tudni követni, és
- olyan kimeneteket kell tudni produkálni, amelyekkel „befolyásolja” a környezetet.
Utóbbi két kritérium tulajdonképpen az „autonómia” pontos meghatározásának kísérlete.
Számomra legalábbis kisebb meglepetést jelent, hogy az új kódex tervezete a gépi tanuláson alapuló rendszereken kívül I. mellékletében még két féle technológia-csoportot is megjelöl, amelyek szintén a szabályozás hatálya alá esnek: a tudásreprezentáción alapuló, és a statisztikai rendszereket (a leírás ennél körmönfontabb, itt csak a lényeget ismertetem). Mivel eddig bővebb magyarázatot nem olvashattunk arról, hogy miért lett e két „hagyományosabb” technológia is bevonva a definícióba, csak arra tudok gyanakodni, hogy az ok az lehet, hogy e két technológiával is építhetők olyan rendszerek, amelyeknek a kimenetei „nem-determinisztikusnak” tűnnek (jóllehet, természetesen azok). Például egy tudásreprezentáción alapuló szakértői rendszer, amely paraméterek és döntési pontok százezreit, vagy millióit, és ugyanígy potenciális kimenetek millióit tartalmazza, hatásában ugyanúgy tűnhet „kiszámíthatatlannak”, mint egy olyan gépi tanuláson alapuló rendszer, amely önmagát „építi fel” az adatokból.
Az MI fogalmának ilyen kitágítása nem feltétlenül szerencsés, de persze az esetek többségében ennek nem lesz jelentősége, mivel a kódex a kockázatalapú megközelítést alkalmazza, és a nem kockázatos területeken tevékenykedő rendszerekre tulajdonképpen semmilyen szabályt és korlátozást nem állapít meg. Ugyanakkor vannak olyan esetek is, amikor ez érdekes helyzeteket eredményezhet. Azokon a területeken ugyanis, amelyek kockázatosnak minősülnek (például bizonyos járművek, gépek biztonsági rendszerei, de például akár a jogalkalmazásban használt automatikus dokumentum-összeállító rendszerek), olyan hagyományos műszaki megoldások is a rendelet hatálya alá tartozhatnak, amelyeket eddig senki nem tekintett MI-nek. Még lesznek viták azzal kapcsolatban, hogy vajon egy ilyen rendszer hoz-e „döntést” egy „emberi célt követve” (a nem túl szerencsés „célok tekintetében” van a magyar fordításban).
Azt azonban meg kell állapítanunk, hogy az esetek kivételesek lesznek. A rendelet hatálya alá tartozó MI-k legnagyobb része gépi tanuláson alapuló rendszer lesz.