Újra kell definiálnunk a plágium fogalmát a mesterséges intelligencia korában?
A mesterséges intelligencia (MI) területén jelenleg egy rendkívül jelentős változást látunk a szabályozási megközelítésekben a mesterséges intelligencia jogszabálycsomag (AI Act) javasolt bevezetésével.
Az AI Act 2023. május 11-én az Európai Unió (EU) jogalkotásának újabb szakaszába lépett, amikor az Európai Parlament Belső Piaci Bizottság és az Állampolgári Jogi Bizottság 84 igen, 7 nem szavazattal és 12 tartózkodás mellett elfogadta az AI Act tárgyalási mandátumtervezetet. Ez egy széles körű jogi keret, amelynek célja az MI alkalmazások szabályozása és a transzparencia, a felelősség és a felhasználói biztonság normáinak megállapítása, áttörést jelent a globális diskurzusban. Az új szabályozási kimunkálása során több kérdés is előkerül, amelyek komplex megoldásokat igényelnek. Az egyik ilyen kihívás az MI-alapú generatív nyelvi modellek, mint az OpenAI által fejlesztett ChatGPT és a plágium közötti kapcsolat.
A generatív nyelvi modellek MI rendszerek, amelyek adott parancsok alapján szöveget generálnak. Ezek a modellek képesek egyedi tartalmat létrehozni, előrejelzéseket tenni, emberi teljesítményhez hasonló írott anyagokat alkotni, válaszokat adni, ezzel számos területen felgyorsítják, illetve egyszerűsítik a munkavégzést. A modellek fejlődése azonban kihívásokat is hordoz magában, különösen a szellemi tulajdon védelme és a plágium összefüggésében. Mivel a nyelvi modellek a beviteli adatok óriási tárházán alapuló szöveget generálnak, (i) véletlenül előállíthatnak már létező, szerzői jogokkal védett tartalmat, ekkor egy ember által korábban előállított tartalom esetében állapítható meg a plagizálás ténye, de előfordulhat az is, hogy (ii) a nyelvi modell által létrehozott tartalom nem hasonlít korábbi ember által alkotott szövegre, és annak átemelése a saját szellemi termékbe a gép által alkotott tartalom plagizálását jelentheti. Mindenekelőtt természetesen fontos megválaszolni azt a kérdést, hogy vajon az MI által létrehozott tartalom átvétele tekinthető-e plágiumnak, hiszen az azt szabályozó jogi norma még nem létezik, a ChatGPT tartalmára való hivatkozás még nem jelent meg, de a tudományos világban kibontakozott már vita akörül, hogy lehet-e társszerző a mesterséges intelligencia.
Mindezen gondolatokhoz először is fontos megjegyezni, hogy a mesterséges intelligenciáknak nincs eredeti gondolatuk és kreativitásuk, csak a tanulóadatok mintáit és szerkezeteit másolják. Az MI által generált tartalom plágiumként való kezelése tehát akkor válik kritikussá jogi és etikai szempontból, amikor olyan szöveget hoz létre, amely azonos vagy lényegesen hasonló egy szerzői jogokkal védett forráshoz. Az AI Act tervezete jelenlegi formájában nem foglalkozik közvetlenül ezzel a kérdéssel, azonban hangsúlyozza, hogy az MI rendszereknek tiszteletben kell tartaniuk az összes meglévő jogszabályt: beleértve a szerzői jogokra vonatkozó törvényt is.
Mint azt az innováció kontra szabályozás terén már oly sokszor tapasztaltuk, a kihívás ezúttal is abban rejlik, hogy egyensúlyt találjunk a generatív nyelvi modellek technológiai fejlesztése és a szellemi tulajdonjogok védelme között. Gyakorlati szinten az egyik megoldás lehet a szigorúbb ellenőrzések bevezetése, például plágiumérzékelő mechanizmusok integrálásával az MI modellekbe, amely a kimeneti adatot, vagyis a generált tartalmat vizsgálja. Törvényhozási szinten az AI Act elfogadása után szükség lehet a szerzői jogi törvények módosítására vagy speciális rendelkezések meghozatalára az MI által generált plágium közvetlen kezelésére. Alternatív megoldásként a jogtudósoknak és a politikai döntéshozóknak lehet, hogy újra kell definiálniuk a plágium fogalmát az MI korában.
Az MI által generált tartalmak plágiumellenőrzésére globális szinten több egyetem tett már kísérletet tartalom ellenőrző szoftverek fejlesztésére, illetve több weboldal is foglalkozik a területtel, többek között az OpenAI AI Text Classifier, a GPTRadar és a Copyleaks. A jelenleg elérhető felületekkel számos probléma felmerül, egyrészt nem mindegyik képes valamennyi nyelven ellenőrizni a szöveget, másrészt megbízhatatlanok. Az OpenAI is egyértelműen kijelentette, hogy az AI Text Classifier még nem teljesen megbízható, és nem használható elsődleges módszerként a másolt szöveg azonosítására. A megbízhatósági teszten ember és GPT által generált szöveget is próbára tettem a három fent nevesített felületen, azonban az ember által létrehozott tartalom esetén jutottam olyan eredményre, amely nagy valószínűséggel MI által generált szövegre gyanakszik, és ez fordítva is megtörtént, sőt az MI által generált szövegeket kis részben módosítva a legtöbb eszköz már egyáltalán nem fedezte fel a gépi egyezést. A jelenleg legnépszerűbb ellenőrző platformok tehát nem alkalmasak a szövegek megbízható klasszifikálására, azonban megállapítható, hogy az OpenAI ChatGPT által létrehozott szövegét az ugyanazon cég által létrehozott AI Text Classifier nagy valószínűséggel felismeri. Az eredmény mindazonáltal még mindig nem hitelt érdemlő.
A már meglévő online tartalmakkal kapcsolatos plágiumgyanún túl a közeljövő kérdése az is, hogy vajon az MI alapú generatív nyelvi modellek által létrehozott tartalom saját szellemi termékként feltüntetve plágiumnak minősül-e akkor, ha nem más ember által alkotott, a hatályos jogszabályok szerint szellemi tulajdonjog védelme alá nem eső tartalmat jelent. 2023 tavaszán a tudományos világban felütötte fejét a vita, miszerint lehet-e társszerző a ChatGPT. Amennyiben előbbi kérdésre a válasz igen, akkor az MI által létrehozott szöveg tekintetében nem beszélhetnénk plagizálásról, hiszen szerzőtársként jelenik meg.
A folyamatban lévő AI Act körüli viták, alkalmas időpontot kínálnak a szerzői jog és plagizálás kérdéseinek kezelésére, rávilágítva egyúttal a technológiai szakemberek, politikai döntéshozók és jogi szakértők közötti egyeztetés szükségességére. Az összetett kihívások közvetlen kezelésével biztosítható, hogy a mesterséges intelligenciák jól szolgálják az embereket, miközben megőrizzük a szellemi tulajdon integritását.
Kép: Flickr