Egy etikus mesterségesintelligencia-mérőrendszer
Egyre több szó esik az etikus mesterséges intelligenciákról: alapvető elvárásként, társadalmi igényként, a jövő biztosítékaként szerepelnek, ennek ellenére kivitelezésük, pontos specifikációjuk, gyakorlati működőképességek egyelőre nem látszik előrelépni. A számtalan felbukkanó szakanyag, módszertani javaslat közül az alábbiakban egy részletesen kidolgozottat mutatunk be, ami véleményünk szerint akár még működhetne is, ha megfelelő mennyiségű és minőségű szakértői hitelesítő szakember és automatizált megoldás állna mögötte, illetve ezek a szakértők valódi befolyásoló erővel bírnának.
Az alábbi keretrendszert az AI Ethics Impact Group (AIEIG) készítette, ezt a munkacsoportot a VDE (Verband der Elektrotechnik, Elektronik und Informationstechnik) és a Bertelsmann Stiftung vezetésével hozták létre. A módszertan célja, hogy a mesterséges intelligencia (MI) etikai alapelveit gyakorlati eszközökké alakítsa, elősegítve az átláthatóságot, a felelősségvállalást és az európai értékek érvényesülését az MI-rendszerek fejlesztésében és alkalmazásában (a teljes dokumentum itt érhető el).
Az volt a cél, hogy kézzelfogható eszközöket biztosítsanak az etikai elvek alkalmazásához, átlátható és összehasonlítható módon értékeljék az MI-rendszerek etikai teljesítményét, mindennek során pedig minimalizálják a bürokráciát, csak ott alkalmazva szabályozást, ahol valóban szükséges. Az ajánlás célja volt az is, hogy könnyen kommunikálható formában jelenjen meg az etikai értékelés a különböző érdekelt felek számára.
A vízió szerint legalább három, kiemelten fontos területen lehetne alkalmazni a módszertant:
- az egészségügyben, ahol az MI-rendszerek diagnosztikai döntései közvetlen hatással vannak az emberi életre, ezért magasabb etikai követelményeknek kell megfelelniük.
- a pénzügyi szolgáltatásokban, ahol például a hitelbírálati rendszerek esetében fontos a méltányosság és a diszkrimináció elkerülése.
- végül, de nem utolsósorban a közösségi médiában, ahol az ajánlórendszerek befolyásolhatják a közvéleményt, ezért az átláthatóság és a felelősségvállalás kiemelten fontos.
A módszertan első lépése egy értékalapú értékelési rendszer (VCIO-modell). A VCIO a Values – Criteria – Indicators – Observables angol szavakból összeállított betűszó, e modell négyszintű struktúrában értékeli az MI-rendszereket:
- Értékek (Values): Alapvető etikai elvek, mint például az átláthatóság, méltányosság, autonómia, adatvédelem és biztonság.
- Kritériumok (Criteria): Az egyes értékekhez kapcsolódó konkrét követelmények.
- Mutatók (Indicators): Mérhető jellemzők, amelyek alapján a kritériumok teljesülése értékelhető.
- Megfigyelhető tényezők (Observables): Olyan konkrét, ellenőrizhető elemek, amelyek alapján a mutatók mérhetők.
Ez a struktúra lehetővé teszi az MI-rendszerek etikai teljesítményének objektív és összehasonlítható értékelését. Ezek mellett a módszertan bevezet egy ötfokozatú kockázati osztályozást az MI-rendszerekre (ez a logika él tovább az Európai Uniós szabályozásokban, például az AI Actben):
- 0. osztály: Nincs szükség etikai értékelésre.
- 1–3. osztály: Növekvő mértékű etikai értékelés és szabályozás szükséges.
- 4. osztály: Az MI alkalmazása nem megengedett az adott kontextusban.
Az osztályozás figyelembe veszi az MI-rendszer hatását, az érintett személyek számát, a döntések visszafordíthatóságát és a potenciális károkat. Végül a módszertan az etikus mesterséges intelligenciák társadalmi kommunikációjára egy vizuális megjelenítő címkét is javasol. Ezt weblapokon, szervereken, vagy a jövőben akár humanoid robotok oldalán is meg lehet majd jeleníteni.
A lenti képen látható a javaslat kinézetében szándékosan a társadalom számára már megismert energiatanúsítványokra hajaz, és jól látható, mely változókban teljesít jól, és melyekben gyengébben az adott mesterséges intelligencia. Amellett, hogy ez szellemes és vizuálisan bejáratott megoldás, várhatóan nem lesz erőteljes hatású, egy digitális termék esetében nem igazán működőképes, illetve minden adatbázis-frissítésnél, algoritmus-finomhangolásnál újra kellene ellenőrizni a mesterséges intelligenciát, ami ideális esetben meg is történhet, de a fizikai vizuális jelölők utánkövetése minden egyes alkalommal nem életszerű.

Az auditálás hat csoportban vizsgálja az adott mesterséges intelligencia etikai megfelelőségét.
1. Autonómia (Autonomy) – itt az elvárt cél az ember döntési szabadságának és önrendelkezésének tiszteletben tartása, az MI-rendszerek nem vehetik el az emberek lehetőségét saját döntések meghozatalára. Kritérium, hogy a felhasználók képesek megérteni és ellenőrizni a rendszer működését, illetve, hogy a rendszer támogatja, nem helyettesíti az emberi döntéshozatalt. A csoport indikátorai: van-e lehetőség emberi beavatkozásra, illetve, hogy érthető-e a döntések háttere (explainability). Megfigyelhető tényezők (példák): a manuális felülbírálási lehetőség megléte, felhasználói útmutató az MI működéséről.
2. Önmeghatározás (Self-determination) – az egyéneknek joguk van identitásuk, életstílusuk és információs önrendelkezésük védelméhez. Kritérium, hogy a rendszer nem manipulálja a felhasználók viselkedését, tiszteletben tartja a privátszférát és identitást. Indikátorok: használ-e a rendszer személyre szabott befolyásolási technikákat, az adatgyűjtés megfelel-e az elvárható átláthatósági szintnek. Megfigyelhető tényezők: a felhasználói profilok építésének szintje, illetve algoritmikus döntések alapján történő tartalomajánlás mértéke.
3. Igazságosság (Justice / Fairness) – a rendszer nem diszkriminálhat, nem erősítheti fel a társadalmi egyenlőtlenségeket, illetve a döntések minden érintett számára méltányosak kell, hogy legyenek. Kritériumok: a rendszer semleges etnikai, nemi, vallási és társadalmi szempontból, illetve, hogy a panaszmechanizmus és jogorvoslati lehetőség biztosított. Indikátorok: vizsgálták-e az algoritmikus torzításokat (bias), és hogy létezik-e diszkriminációt megelőző tesztelési protokoll. Megfigyelhető tényező például a demográfiai változók alapján végzett audit eredménye vagy a fairness-mérő mutatók (pl. disparate impact analysis).
4. Adatvédelem (Privacy) – elvárás, hogy az MI-rendszereknek meg kell védeniük a felhasználók személyes adatait, és az adatkezelésnek pedig jogszerűnek, célhoz kötöttnek és minimalizáltnak kell lennie. Kritériumok: a rendszer legyen GDPR-kompatibilis és biztosítsa, hogy az adatgyűjtés csak a feltétlenül szükséges mértékben történik. Indikátorok: az adatok anonimizálása, illetve a felhasználói hozzájárulás megszerzése és kezelése. Megfigyelhető tényező például az adatvédelmi hatásvizsgálat (DPIA) megléte, rendszeres adatvédelmi auditok jegyzőkönyvei.
5. Átláthatóság (Transparency) – elvárás, hogy az MI-rendszer működésének, döntéshozatali logikájának és adatforrásainak nyilvánosnak és érthetőnek kell lennie. Kritériumok: a döntések indoklása érthető legyen a felhasználó számára és a rendszer működési paraméterei legyenek dokumentáltak. Indikátorok: elérhető-e a rendszer technikai dokumentációja, használ-e a rendszer magyarázó mechanizmusokat (explainable AI). Megfigyelhető tényező lehet a leírás a döntési logikáról a végfelhasználóknak vagy nyilvános forráskód, esetleg modelldokumentáció.
6. Biztonság és ártalomminimalizálás (Safety & Harm Prevention) – cél, hogy a rendszer nem veszélyeztetheti az egyének vagy a társadalom fizikai, mentális vagy jogi jólétét. Kritériumok: a rendszer működése megbízható és ellenálló a hibákkal vagy a támadásokkal szemben, hiba esetén van „fail-safe” mechanizmus. Indikátorok: rendelkezésre áll-e kockázatelemzés, működik-e a rendszer tesztkörnyezetben való ellenőrzésen alapuló validációval. Megfigyelhető tényezők például az incidensnaplók vezetése, tesztelési protokollok, hibajavítási eljárások.
A cél nemes, a módszertan jól átgondolt, azonban minden bizonnyal a szerzők is tisztában vannak azzal, hogy az elsőre jól körülhatárolhatónak mondható mérési elemek a valóságban milyen könnyen félrecsúszhatnak, rövid és hosszú távú hatásaik pontosan olyan bonyolultak, mint a társadalom maga.
Személyes meglátásom szerint nem az átfogó hitelesítési rendszereké a jövő az etikus mesterséges intelligencia világában, hanem a társadalmi alrendszerek szerinti, funkcionális, a már működő társadalmi normák etikus szintre emelt változataié.
Nyitókép forrása: Freepik