Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Kalas Vivien

Bizalmatlansági szavazás az Európai Bizottsággal szemben

Az ügynek gyakorlati következmények nélkül is lehet politikai hatása.

Kalas Vivien 2025.07.09.
Lábody Péter

MI-útmutató

Komoly kihívássá vált az etikus és átlátható működés.

Lábody Péter 2025.07.01.
Mernyei Ákos Péter

Aki sokat markol, keveset fog

Az Európai Tanács eredményei.

Mernyei Ákos Péter 2025.06.30.
Kalas Vivien

A mai Európai Tanács ülés elé

Hat nagyobb témakört kellene megvitatniuk a politikai vezetőknek.

Kalas Vivien 2025.06.26.
Pünkösty András

Lehet-e jól szabályozni a generatív MI kockázatait?

Tisztul a kép a garanciák biztosításának mikéntjével kapcsolatban.

Pünkösty András 2025.06.24.
ITKI BLOG
Szani Zsuzsa
Szani Zsuzsa
vendégszerző
  • 2025.03.04.
  • 2025.03.04.

Az etikus adattárolás dilemmája

Antropomorf robotok és az AI

Amikor egy másik emberi lénnyel kommunikálunk, alapvetőnek vesszük, hogy bizonyos háttértudással rendelkezik. Ez magába foglalhatja mind a világról alkotott általános képünket, ami minden emberben azonos (pl. ha elengedünk valamit a levegőben, az lefele fog esni), mind kulturális elemeket, mind pedig a másik személyről való tudását. Ugyanakkor emberek esetében általános megegyezés is van a felek között a bizalomról, ami alapján általában el tudjuk dönteni, hogy a beszélgetőpartnerünk milyen információkat fog megosztani másokkal, valamint, hogy milyen bizalmi kapcsolatot vár el tőlünk. Ha ezt, a gyakran kimondatlan megegyezést megszegi az egyik fél, azt általában árulásnak éljük meg.

Ha az egyik résztvevőt a beszélgetésben egy AI-szoftverrel rendelkező robottal helyettesítjük, akkor ez a szituáció minden oldalról sokkal bonyolultabbá válik. Lee és Sun szerint az emberek hajlamosak a gépi beszélgetőpartnerüket is társadalmi szereplőnek hinni (Lee, Sun) annak ellenére, hogy az nem rendelkezik öntudattal. Ebből következtethetünk arra, hogy az emberi beszélgetőpartner feltételezi a megszokott bizalmi hálót. A szoftver online jellegéből adódóan minden információ felkerül a felhőbe, vagyis azontúl hogy könnyen feltörhető, szoftvertől függően lehetséges, hogy automatikusan továbbítják az AI-t működtető cégnek. A felhasználó ezt árulásnak élheti meg, hiszen ő a robottal osztotta meg az információt, a robot volt előtte, nem a cég, vagyis a robot a hallgatólagos megegyezést kikerülve harmadik félnek adta ki az információt. Ha a robot bizalmas szerepet tölt be az ember életében, ez komoly problémákhoz vezethet az érzelmi károkon kívül is, pláne, ha az említett információt a cég további felekkel osztja meg, például marketingcélokból. A fent említett jelenséget tovább súlyosbítja, hogy egyes kutatások szerint (Lee et al.) az ember hajlamosabb megosztani érzékeny információt egy AI-jal, mint egy emberrel, mivel úgy érzi, kevésbé ítélkezik. Arról nem is beszélve, hogy ha minden beszélgetésről pontos leiratunk van, az kimeríti a lehallgatás fogalmát, legalábbis a felhasználóban ezt az érzetet keltheti, még akkor is, ha erre figyelmeztetik előre. Ez a probléma kikerülhető, ha az adatokat azonnal töröljük az interakció után, és csak helyileg tároljuk őket.

Ugyanakkor éppen az emberi kommunikációra jellemző közös tudás miatt szükséges lehet valamilyen szintű adattárolás. Ha beszélünk valakivel, feltételezzük, hogy már rendelkezik rólunk bizonyos információkkal. Ha először találkozunk, akkor hol találkozunk, milyen formában, milyen nonverbális jeleket adunk át a megjelenésünkkel, milyen eseményhez vagy folyamathoz van köze a megjelenésünknek, milyen kulturális közegben találkozunk, ha pedig már régebb óta ismerjük, akkor felidézi azokat az információkat, amiket a korábbi interakcióink során szerzett. Ha a gép lemezét minden alkalommal üresre töröljük, akkor mindezen háttértudás nélkül kezdődik az interakció, még ha nem is az az első az adott felhasználóval, ami azt felzaklathatja.

Továbbá ott van a kérdés, hogy milyen információkat oszthat meg a robot az üzemeltetővel. Hogy van-e olyan helyzet, amikor jogosult információt megosztani külső felekkel. Az emberek közötti bizalmi viszony egyik szegmense, hogy ha úgy érezzük, az információ másokat is érint vagy valamilyen másik érték felülírja az alapvető bizalmi viszonyt, akkor az információt másokkal is megosztjuk. Az emberek esetében ez sokszor pletykát jelent, de gép esetében inkább az olyan szituációk kényesek, ahol a szolgáltató cégnek értékes vagy emberi értékeket fenyegető információról van szó (pl. emberi tulajdont vagy életet). Úgy vélem, morálisan az első típusú információt nem szabad kiszivárogtatni, a másodikat viszont szükséges lehet. Ez viszont technikailag lehet bravúros, hogy hogyan ítéli meg a gép, hogy egy beszélgetés mögötti szándék valós vagy színlelt (pl. „meg tudnám ölni” csak egy kifejezés szinten vagy valóban gyilkosságot tervez a felhasználó), valamint mi alapján osztályozza, hogy egy cselekedet emberi értékeket veszélyeztet vagy sem, anélkül, hogy minden beszélgetést kiszivárogtatna.

Úgy gondolom, az információ tárolására valamilyen középutat kéne találni. Esetlegesen a szoftver a beszélgetést követően fő gondolatpontokat leírhatna és azokat tárolhatná el, így a kisebb egységeket is egyszerűbb kezelni. Ugyanakkor itt felmerül a kérdés, hogy fagráf-szerűen eltároljon-e minden információt vagy mindig kérje be a felhasználótól az ismétlést. Ha ezt teszi, irritáló lehet az emberi felhasználónak, ellenkező esetben viszont megint az a kérdés, hogy mi történik ha részletes információt tárolunk.

A legegyszerűbb megoldás talán egy lokális tárolás lenne, azonban akkor felmerülnek a hardverköltségek. Ha különböző memóriaegységekben tároljuk a felhasználó információját, akkor nehezebb a kiszivárogtatás, valamint energetikailag gazdaságosabb lehet az adatok hozzáférése, mint ha felhőben dolgoznánk, de a hardvernek természetesen megvannak a maga hátrányai.

Továbbá figyelembe kell vennünk az átláthatóság kérdését is. Vitale kutatása szerint az adatkezelés átláthatóságának növelése javítja a felhasználói tapasztalatot, ugyanakkor nem talált elég bizonyítékot, hogy alátámassza, hogy növeli a felhasználó bizalmát is a gép felé. Ugyanakkor itt figyelembe kell venni, hogy amennyiben hozzáférést adunk a felhasználónak a róla gyűjtött adatokhoz, azzal nő a veszélye, hogy az kiszolgáltatottnak érzi magát, és teljesen elhatárolja magát a szoftvertől. Ennek ellenére etikai megfontolásból úgy vélem, mégis szükséges tudatosítani a felhasználóban, milyen információkkal rendelkezik a gép róla, mivel feltételezhetően így alaposabban megfontolja, milyen információkat oszt meg a robottal, és rajta keresztül a szoftver tulajdonosával.

Azt mondják, valamit valamiért, ritkán van olyan megoldás, amivel mindenki boldog. Középutat kell találni, amivel nem törjük össze a felhasználó alapvető bizalmát a robot felé, ugyanakkor mégis emberi kommunikáció jellegzeteségeit hordozza a gép. Az emberek sok információt megjegyeznek a beszélgetőpartnerükről, de messze nem mindent. Határvonalon kell egyensúlyozni, hogy mikor feledékeny a robot, és mikor ijesztően pontos a memóriája. Ugyanakkor vigyázni kell, mert ha túlságosan is hasonlóvá válik a gép kommunikációja (vagy megjelenése) az emberéhez, az további komplikációkhoz vezethet (példáért lásd: Müller et al.).

Idézett művek

Lee, Sun Kyong, and Juhyung Sun. “Testing a Theoretical Model of Trust in Human-Machine Communication: Emotional Experience and Social Presence.” Behaviour & Information Technology, Nov. 2022, pp. 1–14.

Lee, Yi-Chieh, et al. “‘I Hear You, I Feel You’: Encouraging Deep Self-Disclosure through a Chatbot.” Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, Apr. 2020.

Müller, Barbara C. N., et al. “I, Robot: How Human Appearance and Mind Attribution Relate to the Perceived Danger of Robots.” International Journal of Social Robotics, vol. 13, no. 4, June 2020, pp. 691–701.

Vitale, Jonathan, et al. “Be More Transparent and Users Will like You.” Proceedings of the 2018 ACM/IEEE International Conference on Human-Robot Interaction, Feb. 2018.

Témakörök: adattárolás, jog, mesterséges intelligencia
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT