Módszertani műhelybeszélgetést rendezett a tudományetika és a mesterséges intelligencia (MI) különböző dimenzióiról a Nemzeti Közszolgálati Egyetem Államtudományi és Nemzetközi Tanulmányok Karának (ÁNTK) Kari Tudományos Diákköri Tanácsa március 23-án, az Oktatási Központban.
Sokan tartanak attól, hogy az MI elveszi a munkájukat. Ám van olyan része is ennek a munkának, amit már nyugodtan elvehet – hangsúlyozta Tudományetika és MI című előadásában Bányász Péter, az ÁNTK Kiberbiztonsági és e-Közigazgatási Tanszékének egyetemi docense. Szerinte ma és a jövőben az kerül előnybe, aki értően használja az MI-t. Az etikusság határát azonban nem nehéz átlépni e folyamat során. Hozzátette, neki nem az MI, hanem a kiberbiztonság emberi aspektusa a szakterülete, ám ennek számos kapcsolódási pontja van a generatív MI-vel. A mesterséges intelligencia és a gépi tanulás világának csupán kis szegletét alkotják a nagy nyelvi modellek, ám a köznyelv a generatív MI-t azonosítja a teljes területtel. Ami lényeges szerinte, hogy az MI nem gondolkodik helyettünk, hiszen csak reagál a kérdésre és a statisztikai valószínűség alapján dobja ki a következő szót a válaszban. Ami azt is jelenti, hogy a rossz kérdésfeltevés rossz irányokba vezet.
Az MI veszélyei
Az MI használatának vannak veszélyei is. A szakértő szerint ilyen a túlzott támaszkodás a munkánk során az MI-értékelésére, noha az nem ismeri a valódi céljainkat. Problémát jelenthet az ellenőrizetlen MI-tartalom teljes átvétele, hiszen abban lehetnek pontatlan információk. Emellett felvetődhetnek szerzői jogi problémák is. Szintén nagy csábítás jelent a nagy nyelvi modellek túlzott idealizálása. Az MI használata során valódi veszélyt jelent még az emberi kreativitás kiszervezése, az integritás eróziója, az előre betáplált elfogultságok kritikátlan átvétele, a transzparencia hiánya, de még az is, ha egy adott feladathoz rossz eszközt választunk.
Lényeges tisztában lenni azzal is, hogy az MI nem tudja, hogy mit nem tud. Ezért hajlamos nem létező hivatkozásokat, ismeretlen szakirodalmakat megadni. Az MI azt sem tudja, ha egy adott szakterületet nem ismer, ami különösen kockázatos új tárgyak vagy témák esetén. A ChatGPT nem különösen erős például a logikai és a matematikai bizonyítások területén. Nincs valós idejű ismerete a világ tényeiről vagy a hatályos jogszabályokról. Nem tud komplex feladatokat egyetlen gombnyomásra megoldani, nem tud csak egyetlen megadott forrásból választ adni, ahogy nem alkalmas az objektív, elfogulatlan döntéshozatalra sem. Ahogy a docens fogalmazott, nem lehet világnézetet építeni a ChatGPT-re. Ugyanakkor hozzátette: már van „balkáni kiadása” is, azaz a felhasználók korábbi kérései és információ alapján képes lehet a trükközésre, a kerülőutak és a nem teljesen hivatalos megoldások bemutatására is.
Ami tilos
Bányász Péter hangsúlyozta, tilos más szerzők szövegeit vagy a kérdőívek interjúalanyainak nevét, válaszait beadni – hiszen a felhasználási feltételek szerint ezeket az MI-t készítő cég innentől fogva a sajátjaként kezelheti, azaz érzékeny adatok kerülhetnek a külső szolgáltatóhoz. A személyes adatok megadásával adatvédelmi incidenst kockáztatunk, ráadásul beazonosíthatóvá is válhatnak emberek. A promptok (az MI munkára fogására használt utasítások) kiszivárgásával vagy a naplózáson keresztül szolgálati titkok, belső szabályzatok kerülhetnek ki, illetve nem kívánt további adatfolyamok jöhetnek létre.
Hogyan lehet jól használni?
Amit viszont érdemes megtenni: kísérletezni, magunkat képezni, másokkal konzultálni, visszajelezni az eszköznek, illetve rendre felülvizsgálni a válaszait. Ezen kívül pedig mindig megjelölni, hogy mi készült mesterséges intelligencia segítségével az adott munkában.
Bányász Péter néhány, a kutatásra valóban használható szolgáltatást is bemutatott a saját tapasztalatai alapján. A Google NotebookLM modellje például képes a feltöltött forrásból, azaz egy vagy több tudományos publikációból prezentációt, podcastet, videót, tanulókártyát vagy akár kvízt alkotni. A jogszabályok területén jól használható a Lexa, amelyet a hazai és uniós joggal tanítottak fel. A szakirodalom-keresésre a legjobb lenne a Scopus AI megoldása, ám az igen drága. Helyette a docens az Elicit szakirodalom-kereső platformot javasolta. Ennek ingyenes verziója bár korlátozott, ám képes releváns szakirodalmakat találni a megadott szempontrendszer szerint, illetve ezeket összevetni és a szerzők nézeteit ütköztetni egymással. A Zotero pedig megkönnyíti a talált szakirodalmak hivatkozásainak kezelését a tanulmányokban. Végül a Napkint is bemutatta az előadó, amely illusztrációkat képes alkotni a prezentációhoz akár teljesen egyedi stílusban is.
Miként szóljunk a géphez?
Bányász Péter a nagy nyelvi modellek promptolására is kitért. A direkt és tömör utasításra is mindig érkezik persze válasz, ám ez komplex feladatoknál biztosan nem lesz túl jó, hallucinációt vagy felszínes információkat kapunk vissza. Sokan használnak előre elkészített promptkönyvtárakat vagy épp strukturált keretrendszert, ahol kontextust, szerepet, elvárásokat és lépéseket is megadnak az MI-nek. Jó megoldás lehet még a kritikai reflexióval bővített változata is a promptnak, azaz megkérni az MI-t arra, hogy legyen az ördög ügyvédje, keressen hibát a gondolatmenetben. Fontos a párbeszéd, a válaszok tisztázása. Bányász Péter szerint az is nagy minőségbeli ugrást jelent, ha megkérjük az MI-t, hogy kérdezzen tőlünk annyit, amennyi ahhoz szükséges, hogy a feladatot a lehető legjobban végre tudja hajtani.
A docens végül az udvariaskodásról is szót ejtett. Szerinte a „kérlek” nem ad motivációt a gépnek, hiszen az nem érez empátiát. Amellett, hogy feleslegesek, még zajt is generálnak ezek az udvarias fordulatok. Ez rontja a hatékonyságot, elvonja a figyelmet, ami hallucinációkhoz és torzításokhoz vezet.
Az esemény a Nemzeti Tehetség Program keretében, a Kulturális és Innovációs Minisztérium támogatásával valósult meg az NTP-HHTDK-25-0007 pályázat keretében.
Nyitókép forrása: UnImages / depositphotos.com


