Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Rab Árpád

A humanoid robotok jelenlegi piaci és technológiai trendjei

A humanoid robotok gyors ütemben terjednek a szolgáltatóiparban, az iparban és a mindennapi élet különböző területein.

Rab Árpád 2025.08.12.
Petruska Ferenc

Mesterséges intelligencia ügynökök kontra chatbotok

Melyiket milyen munkafázisban érdemes használni?

Petruska Ferenc 2025.07.28.
Szikora Tamás

Vajon megilleti-e a csetbotokat a szólásszabadság alapjoga?

A technológiai vívmányok komoly kihívások elé állítják a társadalomtudománnyal foglalkozó kutatókat.

Szikora Tamás 2025.07.21.
Petruska Ferenc

A multimodális rendszerek kockázatai háborúban

Kétélű fegyver, hiszen nemcsak biztonságot és védelmet nyújt, hanem veszélyeket hordoz.

Petruska Ferenc 2025.07.15.
Sorbán Kinga

Az életkor-ellenőrzés esete a szólásszabadsággal az Egyesült Államokban

A Paxton-ügy elmozdulást jelent a korábbi ítélkezési gyakorlathoz képest.

Sorbán Kinga 2025.07.14.
ITKI BLOG
Picture of Rab Árpád
Rab Árpád
vezető kutató, NKE Információs Társadalom Kutatóintézet
  • 2025.05.27.
  • 2025.05.27.

A megfoghatatlan kézzelfoghatóvá tétele?

Egy etikus mesterségesintelligencia-mérőrendszer

Egyre több szó esik az etikus mesterséges intelligenciákról: alapvető elvárásként, társadalmi igényként, a jövő biztosítékaként szerepelnek, ennek ellenére kivitelezésük, pontos specifikációjuk, gyakorlati működőképességek egyelőre nem látszik előrelépni. A számtalan felbukkanó szakanyag, módszertani javaslat közül az alábbiakban egy részletesen kidolgozottat mutatunk be, ami véleményünk szerint akár még működhetne is, ha megfelelő mennyiségű és minőségű szakértői hitelesítő szakember és automatizált megoldás állna mögötte, illetve ezek a szakértők valódi befolyásoló erővel bírnának.

Az alábbi keretrendszert az AI Ethics Impact Group (AIEIG) készítette, ezt a munkacsoportot a VDE (Verband der Elektrotechnik, Elektronik und Informationstechnik) és a Bertelsmann Stiftung vezetésével hozták létre. A módszertan célja, hogy a mesterséges intelligencia (MI) etikai alapelveit gyakorlati eszközökké alakítsa, elősegítve az átláthatóságot, a felelősségvállalást és az európai értékek érvényesülését az MI-rendszerek fejlesztésében és alkalmazásában (a teljes dokumentum itt érhető el).

Az volt a cél, hogy kézzelfogható eszközöket biztosítsanak az etikai elvek alkalmazásához, átlátható és összehasonlítható módon értékeljék az MI-rendszerek etikai teljesítményét, mindennek során pedig minimalizálják a bürokráciát, csak ott alkalmazva szabályozást, ahol valóban szükséges. Az ajánlás célja volt az is, hogy könnyen kommunikálható formában jelenjen meg az etikai értékelés a különböző érdekelt felek számára.

A vízió szerint legalább három, kiemelten fontos területen lehetne alkalmazni a módszertant: 

  • az egészségügyben, ahol az MI-rendszerek diagnosztikai döntései közvetlen hatással vannak az emberi életre, ezért magasabb etikai követelményeknek kell megfelelniük.
  • a pénzügyi szolgáltatásokban, ahol például a hitelbírálati rendszerek esetében fontos a méltányosság és a diszkrimináció elkerülése.
  • végül, de nem utolsósorban a közösségi médiában, ahol az ajánlórendszerek befolyásolhatják a közvéleményt, ezért az átláthatóság és a felelősségvállalás kiemelten fontos.

A módszertan első lépése egy értékalapú értékelési rendszer (VCIO-modell). A VCIO a Values – Criteria – Indicators – Observables angol szavakból összeállított betűszó, e modell négyszintű struktúrában értékeli az MI-rendszereket:

  • Értékek (Values): Alapvető etikai elvek, mint például az átláthatóság, méltányosság, autonómia, adatvédelem és biztonság.
  • Kritériumok (Criteria): Az egyes értékekhez kapcsolódó konkrét követelmények.
  • Mutatók (Indicators): Mérhető jellemzők, amelyek alapján a kritériumok teljesülése értékelhető.
  • Megfigyelhető tényezők (Observables): Olyan konkrét, ellenőrizhető elemek, amelyek alapján a mutatók mérhetők.

Ez a struktúra lehetővé teszi az MI-rendszerek etikai teljesítményének objektív és összehasonlítható értékelését. Ezek mellett a módszertan bevezet egy ötfokozatú kockázati osztályozást az MI-rendszerekre (ez a logika él tovább az Európai Uniós szabályozásokban, például az AI Actben):

  • 0. osztály: Nincs szükség etikai értékelésre.
  • 1–3. osztály: Növekvő mértékű etikai értékelés és szabályozás szükséges.
  • 4. osztály: Az MI alkalmazása nem megengedett az adott kontextusban.

Az osztályozás figyelembe veszi az MI-rendszer hatását, az érintett személyek számát, a döntések visszafordíthatóságát és a potenciális károkat. Végül a módszertan az etikus mesterséges intelligenciák társadalmi kommunikációjára egy vizuális megjelenítő címkét is javasol. Ezt weblapokon, szervereken, vagy a jövőben akár humanoid robotok oldalán is meg lehet majd jeleníteni. 

A lenti képen látható a javaslat kinézetében szándékosan a társadalom számára már megismert energiatanúsítványokra hajaz, és jól látható, mely változókban teljesít jól, és melyekben gyengébben az adott mesterséges intelligencia. Amellett, hogy ez szellemes és vizuálisan bejáratott megoldás, várhatóan nem lesz erőteljes hatású, egy digitális termék esetében nem igazán működőképes, illetve minden adatbázis-frissítésnél, algoritmus-finomhangolásnál újra kellene ellenőrizni a mesterséges intelligenciát, ami ideális esetben meg is történhet, de a fizikai vizuális jelölők utánkövetése minden egyes alkalommal nem életszerű. 

Az auditálás hat csoportban vizsgálja az adott mesterséges intelligencia etikai megfelelőségét. 

1. Autonómia (Autonomy) – itt az elvárt cél az ember döntési szabadságának és önrendelkezésének tiszteletben tartása, az MI-rendszerek nem vehetik el az emberek lehetőségét saját döntések meghozatalára. Kritérium, hogy a felhasználók képesek megérteni és ellenőrizni a rendszer működését, illetve, hogy a rendszer támogatja, nem helyettesíti az emberi döntéshozatalt. A csoport indikátorai: van-e lehetőség emberi beavatkozásra, illetve, hogy érthető-e a döntések háttere (explainability). Megfigyelhető tényezők (példák): a manuális felülbírálási lehetőség megléte, felhasználói útmutató az MI működéséről.

2. Önmeghatározás (Self-determination) – az egyéneknek joguk van identitásuk, életstílusuk és információs önrendelkezésük védelméhez. Kritérium, hogy a rendszer nem manipulálja a felhasználók viselkedését, tiszteletben tartja a privátszférát és identitást. Indikátorok: használ-e a rendszer személyre szabott befolyásolási technikákat, az adatgyűjtés megfelel-e az elvárható átláthatósági szintnek. Megfigyelhető tényezők: a felhasználói profilok építésének szintje, illetve algoritmikus döntések alapján történő tartalomajánlás mértéke.

3. Igazságosság (Justice / Fairness) – a rendszer nem diszkriminálhat, nem erősítheti fel a társadalmi egyenlőtlenségeket, illetve a döntések minden érintett számára méltányosak kell, hogy legyenek. Kritériumok: a rendszer semleges etnikai, nemi, vallási és társadalmi szempontból, illetve, hogy a panaszmechanizmus és jogorvoslati lehetőség biztosított. Indikátorok: vizsgálták-e az algoritmikus torzításokat (bias), és hogy létezik-e diszkriminációt megelőző tesztelési protokoll. Megfigyelhető tényező például a demográfiai változók alapján végzett audit eredménye vagy a fairness-mérő mutatók (pl. disparate impact analysis).

4. Adatvédelem (Privacy) – elvárás, hogy az MI-rendszereknek meg kell védeniük a felhasználók személyes adatait, és az adatkezelésnek pedig jogszerűnek, célhoz kötöttnek és minimalizáltnak kell lennie. Kritériumok: a rendszer legyen GDPR-kompatibilis és biztosítsa, hogy az adatgyűjtés csak a feltétlenül szükséges mértékben történik.  Indikátorok: az adatok anonimizálása, illetve a felhasználói hozzájárulás megszerzése és kezelése. Megfigyelhető tényező például az adatvédelmi hatásvizsgálat (DPIA) megléte, rendszeres adatvédelmi auditok jegyzőkönyvei.

5. Átláthatóság (Transparency) – elvárás, hogy az MI-rendszer működésének, döntéshozatali logikájának és adatforrásainak nyilvánosnak és érthetőnek kell lennie. Kritériumok: a döntések indoklása érthető legyen a felhasználó számára és a rendszer működési paraméterei legyenek dokumentáltak. Indikátorok: elérhető-e a rendszer technikai dokumentációja, használ-e a rendszer magyarázó mechanizmusokat (explainable AI). Megfigyelhető tényező lehet a leírás a döntési logikáról a végfelhasználóknak vagy nyilvános forráskód, esetleg modelldokumentáció.

6. Biztonság és ártalomminimalizálás (Safety & Harm Prevention) – cél, hogy a rendszer nem veszélyeztetheti az egyének vagy a társadalom fizikai, mentális vagy jogi jólétét. Kritériumok: a rendszer működése megbízható és ellenálló a hibákkal vagy a támadásokkal szemben, hiba esetén van „fail-safe” mechanizmus. Indikátorok: rendelkezésre áll-e kockázatelemzés, működik-e a rendszer tesztkörnyezetben való ellenőrzésen alapuló validációval. Megfigyelhető tényezők például az incidensnaplók vezetése, tesztelési protokollok, hibajavítási eljárások.

A cél nemes, a módszertan jól átgondolt, azonban minden bizonnyal a szerzők is tisztában vannak azzal, hogy az elsőre jól körülhatárolhatónak mondható mérési elemek a valóságban milyen könnyen félrecsúszhatnak, rövid és hosszú távú hatásaik pontosan olyan bonyolultak, mint a társadalom maga.

Személyes meglátásom szerint nem az átfogó hitelesítési rendszereké a jövő az etikus mesterséges intelligencia világában, hanem a társadalmi alrendszerek szerinti, funkcionális, a már működő társadalmi normák etikus szintre emelt változataié.

Nyitókép forrása: Freepik

Témakörök: etika, jog, mérés, mesterséges intelligencia, társadalom
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT