Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Mernyei Ákos Péter

A költség(vetés) fogságában

A költségvetés-tervezés mindig izgalmas folyamat. Nagy politikai csaták várhatók.

Mernyei Ákos Péter 2025.06.13.
Pató Viktória Lilla

Tudományos vészjelzés Európából

A Choose Europe és a kutatói kivándorlás dilemmája.

Pató Viktória Lilla 2025.06.04.
Kalas Vivien

Uniós helyzetkép az illegális bevándorlásról

Az Európai Bizottság csökkentené a kontinensre nehezedő migrációs nyomást.

Kalas Vivien 2025.05.27.
Zsivity Tímea

Montenegró dilemmája

Ökológiai értékek és politikai érdekek ütközése az uniós úton.

Zsivity Tímea 2025.05.21.
Tardi Roland

A mesterséges intelligencia jelenléte a német politikában

Az MI új korszakot nyitott a választási kampányokban.

Tardi Roland 2025.05.20.
ITKI BLOG
Rab Árpád
Rab Árpád
vezető kutató, NKE Információs Társadalom Kutatóintézet
  • 2025.05.27.
  • 2025.05.27.

A megfoghatatlan kézzelfoghatóvá tétele?

Egy etikus mesterségesintelligencia-mérőrendszer

Egyre több szó esik az etikus mesterséges intelligenciákról: alapvető elvárásként, társadalmi igényként, a jövő biztosítékaként szerepelnek, ennek ellenére kivitelezésük, pontos specifikációjuk, gyakorlati működőképességek egyelőre nem látszik előrelépni. A számtalan felbukkanó szakanyag, módszertani javaslat közül az alábbiakban egy részletesen kidolgozottat mutatunk be, ami véleményünk szerint akár még működhetne is, ha megfelelő mennyiségű és minőségű szakértői hitelesítő szakember és automatizált megoldás állna mögötte, illetve ezek a szakértők valódi befolyásoló erővel bírnának.

Az alábbi keretrendszert az AI Ethics Impact Group (AIEIG) készítette, ezt a munkacsoportot a VDE (Verband der Elektrotechnik, Elektronik und Informationstechnik) és a Bertelsmann Stiftung vezetésével hozták létre. A módszertan célja, hogy a mesterséges intelligencia (MI) etikai alapelveit gyakorlati eszközökké alakítsa, elősegítve az átláthatóságot, a felelősségvállalást és az európai értékek érvényesülését az MI-rendszerek fejlesztésében és alkalmazásában (a teljes dokumentum itt érhető el).

Az volt a cél, hogy kézzelfogható eszközöket biztosítsanak az etikai elvek alkalmazásához, átlátható és összehasonlítható módon értékeljék az MI-rendszerek etikai teljesítményét, mindennek során pedig minimalizálják a bürokráciát, csak ott alkalmazva szabályozást, ahol valóban szükséges. Az ajánlás célja volt az is, hogy könnyen kommunikálható formában jelenjen meg az etikai értékelés a különböző érdekelt felek számára.

A vízió szerint legalább három, kiemelten fontos területen lehetne alkalmazni a módszertant: 

  • az egészségügyben, ahol az MI-rendszerek diagnosztikai döntései közvetlen hatással vannak az emberi életre, ezért magasabb etikai követelményeknek kell megfelelniük.
  • a pénzügyi szolgáltatásokban, ahol például a hitelbírálati rendszerek esetében fontos a méltányosság és a diszkrimináció elkerülése.
  • végül, de nem utolsósorban a közösségi médiában, ahol az ajánlórendszerek befolyásolhatják a közvéleményt, ezért az átláthatóság és a felelősségvállalás kiemelten fontos.

A módszertan első lépése egy értékalapú értékelési rendszer (VCIO-modell). A VCIO a Values – Criteria – Indicators – Observables angol szavakból összeállított betűszó, e modell négyszintű struktúrában értékeli az MI-rendszereket:

  • Értékek (Values): Alapvető etikai elvek, mint például az átláthatóság, méltányosság, autonómia, adatvédelem és biztonság.
  • Kritériumok (Criteria): Az egyes értékekhez kapcsolódó konkrét követelmények.
  • Mutatók (Indicators): Mérhető jellemzők, amelyek alapján a kritériumok teljesülése értékelhető.
  • Megfigyelhető tényezők (Observables): Olyan konkrét, ellenőrizhető elemek, amelyek alapján a mutatók mérhetők.

Ez a struktúra lehetővé teszi az MI-rendszerek etikai teljesítményének objektív és összehasonlítható értékelését. Ezek mellett a módszertan bevezet egy ötfokozatú kockázati osztályozást az MI-rendszerekre (ez a logika él tovább az Európai Uniós szabályozásokban, például az AI Actben):

  • 0. osztály: Nincs szükség etikai értékelésre.
  • 1–3. osztály: Növekvő mértékű etikai értékelés és szabályozás szükséges.
  • 4. osztály: Az MI alkalmazása nem megengedett az adott kontextusban.

Az osztályozás figyelembe veszi az MI-rendszer hatását, az érintett személyek számát, a döntések visszafordíthatóságát és a potenciális károkat. Végül a módszertan az etikus mesterséges intelligenciák társadalmi kommunikációjára egy vizuális megjelenítő címkét is javasol. Ezt weblapokon, szervereken, vagy a jövőben akár humanoid robotok oldalán is meg lehet majd jeleníteni. 

A lenti képen látható a javaslat kinézetében szándékosan a társadalom számára már megismert energiatanúsítványokra hajaz, és jól látható, mely változókban teljesít jól, és melyekben gyengébben az adott mesterséges intelligencia. Amellett, hogy ez szellemes és vizuálisan bejáratott megoldás, várhatóan nem lesz erőteljes hatású, egy digitális termék esetében nem igazán működőképes, illetve minden adatbázis-frissítésnél, algoritmus-finomhangolásnál újra kellene ellenőrizni a mesterséges intelligenciát, ami ideális esetben meg is történhet, de a fizikai vizuális jelölők utánkövetése minden egyes alkalommal nem életszerű. 

Az auditálás hat csoportban vizsgálja az adott mesterséges intelligencia etikai megfelelőségét. 

1. Autonómia (Autonomy) – itt az elvárt cél az ember döntési szabadságának és önrendelkezésének tiszteletben tartása, az MI-rendszerek nem vehetik el az emberek lehetőségét saját döntések meghozatalára. Kritérium, hogy a felhasználók képesek megérteni és ellenőrizni a rendszer működését, illetve, hogy a rendszer támogatja, nem helyettesíti az emberi döntéshozatalt. A csoport indikátorai: van-e lehetőség emberi beavatkozásra, illetve, hogy érthető-e a döntések háttere (explainability). Megfigyelhető tényezők (példák): a manuális felülbírálási lehetőség megléte, felhasználói útmutató az MI működéséről.

2. Önmeghatározás (Self-determination) – az egyéneknek joguk van identitásuk, életstílusuk és információs önrendelkezésük védelméhez. Kritérium, hogy a rendszer nem manipulálja a felhasználók viselkedését, tiszteletben tartja a privátszférát és identitást. Indikátorok: használ-e a rendszer személyre szabott befolyásolási technikákat, az adatgyűjtés megfelel-e az elvárható átláthatósági szintnek. Megfigyelhető tényezők: a felhasználói profilok építésének szintje, illetve algoritmikus döntések alapján történő tartalomajánlás mértéke.

3. Igazságosság (Justice / Fairness) – a rendszer nem diszkriminálhat, nem erősítheti fel a társadalmi egyenlőtlenségeket, illetve a döntések minden érintett számára méltányosak kell, hogy legyenek. Kritériumok: a rendszer semleges etnikai, nemi, vallási és társadalmi szempontból, illetve, hogy a panaszmechanizmus és jogorvoslati lehetőség biztosított. Indikátorok: vizsgálták-e az algoritmikus torzításokat (bias), és hogy létezik-e diszkriminációt megelőző tesztelési protokoll. Megfigyelhető tényező például a demográfiai változók alapján végzett audit eredménye vagy a fairness-mérő mutatók (pl. disparate impact analysis).

4. Adatvédelem (Privacy) – elvárás, hogy az MI-rendszereknek meg kell védeniük a felhasználók személyes adatait, és az adatkezelésnek pedig jogszerűnek, célhoz kötöttnek és minimalizáltnak kell lennie. Kritériumok: a rendszer legyen GDPR-kompatibilis és biztosítsa, hogy az adatgyűjtés csak a feltétlenül szükséges mértékben történik.  Indikátorok: az adatok anonimizálása, illetve a felhasználói hozzájárulás megszerzése és kezelése. Megfigyelhető tényező például az adatvédelmi hatásvizsgálat (DPIA) megléte, rendszeres adatvédelmi auditok jegyzőkönyvei.

5. Átláthatóság (Transparency) – elvárás, hogy az MI-rendszer működésének, döntéshozatali logikájának és adatforrásainak nyilvánosnak és érthetőnek kell lennie. Kritériumok: a döntések indoklása érthető legyen a felhasználó számára és a rendszer működési paraméterei legyenek dokumentáltak. Indikátorok: elérhető-e a rendszer technikai dokumentációja, használ-e a rendszer magyarázó mechanizmusokat (explainable AI). Megfigyelhető tényező lehet a leírás a döntési logikáról a végfelhasználóknak vagy nyilvános forráskód, esetleg modelldokumentáció.

6. Biztonság és ártalomminimalizálás (Safety & Harm Prevention) – cél, hogy a rendszer nem veszélyeztetheti az egyének vagy a társadalom fizikai, mentális vagy jogi jólétét. Kritériumok: a rendszer működése megbízható és ellenálló a hibákkal vagy a támadásokkal szemben, hiba esetén van „fail-safe” mechanizmus. Indikátorok: rendelkezésre áll-e kockázatelemzés, működik-e a rendszer tesztkörnyezetben való ellenőrzésen alapuló validációval. Megfigyelhető tényezők például az incidensnaplók vezetése, tesztelési protokollok, hibajavítási eljárások.

A cél nemes, a módszertan jól átgondolt, azonban minden bizonnyal a szerzők is tisztában vannak azzal, hogy az elsőre jól körülhatárolhatónak mondható mérési elemek a valóságban milyen könnyen félrecsúszhatnak, rövid és hosszú távú hatásaik pontosan olyan bonyolultak, mint a társadalom maga.

Személyes meglátásom szerint nem az átfogó hitelesítési rendszereké a jövő az etikus mesterséges intelligencia világában, hanem a társadalmi alrendszerek szerinti, funkcionális, a már működő társadalmi normák etikus szintre emelt változataié.

Nyitókép forrása: Freepik

Témakörök: etika, jog, mérés, mesterséges intelligencia, társadalom
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT