Antropomorf robotok és az AI
Amikor egy másik emberi lénnyel kommunikálunk, alapvetőnek vesszük, hogy bizonyos háttértudással rendelkezik. Ez magába foglalhatja mind a világról alkotott általános képünket, ami minden emberben azonos (pl. ha elengedünk valamit a levegőben, az lefele fog esni), mind kulturális elemeket, mind pedig a másik személyről való tudását. Ugyanakkor emberek esetében általános megegyezés is van a felek között a bizalomról, ami alapján általában el tudjuk dönteni, hogy a beszélgetőpartnerünk milyen információkat fog megosztani másokkal, valamint, hogy milyen bizalmi kapcsolatot vár el tőlünk. Ha ezt, a gyakran kimondatlan megegyezést megszegi az egyik fél, azt általában árulásnak éljük meg.
Ha az egyik résztvevőt a beszélgetésben egy AI-szoftverrel rendelkező robottal helyettesítjük, akkor ez a szituáció minden oldalról sokkal bonyolultabbá válik. Lee és Sun szerint az emberek hajlamosak a gépi beszélgetőpartnerüket is társadalmi szereplőnek hinni (Lee, Sun) annak ellenére, hogy az nem rendelkezik öntudattal. Ebből következtethetünk arra, hogy az emberi beszélgetőpartner feltételezi a megszokott bizalmi hálót. A szoftver online jellegéből adódóan minden információ felkerül a felhőbe, vagyis azontúl hogy könnyen feltörhető, szoftvertől függően lehetséges, hogy automatikusan továbbítják az AI-t működtető cégnek. A felhasználó ezt árulásnak élheti meg, hiszen ő a robottal osztotta meg az információt, a robot volt előtte, nem a cég, vagyis a robot a hallgatólagos megegyezést kikerülve harmadik félnek adta ki az információt. Ha a robot bizalmas szerepet tölt be az ember életében, ez komoly problémákhoz vezethet az érzelmi károkon kívül is, pláne, ha az említett információt a cég további felekkel osztja meg, például marketingcélokból. A fent említett jelenséget tovább súlyosbítja, hogy egyes kutatások szerint (Lee et al.) az ember hajlamosabb megosztani érzékeny információt egy AI-jal, mint egy emberrel, mivel úgy érzi, kevésbé ítélkezik. Arról nem is beszélve, hogy ha minden beszélgetésről pontos leiratunk van, az kimeríti a lehallgatás fogalmát, legalábbis a felhasználóban ezt az érzetet keltheti, még akkor is, ha erre figyelmeztetik előre. Ez a probléma kikerülhető, ha az adatokat azonnal töröljük az interakció után, és csak helyileg tároljuk őket.
Ugyanakkor éppen az emberi kommunikációra jellemző közös tudás miatt szükséges lehet valamilyen szintű adattárolás. Ha beszélünk valakivel, feltételezzük, hogy már rendelkezik rólunk bizonyos információkkal. Ha először találkozunk, akkor hol találkozunk, milyen formában, milyen nonverbális jeleket adunk át a megjelenésünkkel, milyen eseményhez vagy folyamathoz van köze a megjelenésünknek, milyen kulturális közegben találkozunk, ha pedig már régebb óta ismerjük, akkor felidézi azokat az információkat, amiket a korábbi interakcióink során szerzett. Ha a gép lemezét minden alkalommal üresre töröljük, akkor mindezen háttértudás nélkül kezdődik az interakció, még ha nem is az az első az adott felhasználóval, ami azt felzaklathatja.
Továbbá ott van a kérdés, hogy milyen információkat oszthat meg a robot az üzemeltetővel. Hogy van-e olyan helyzet, amikor jogosult információt megosztani külső felekkel. Az emberek közötti bizalmi viszony egyik szegmense, hogy ha úgy érezzük, az információ másokat is érint vagy valamilyen másik érték felülírja az alapvető bizalmi viszonyt, akkor az információt másokkal is megosztjuk. Az emberek esetében ez sokszor pletykát jelent, de gép esetében inkább az olyan szituációk kényesek, ahol a szolgáltató cégnek értékes vagy emberi értékeket fenyegető információról van szó (pl. emberi tulajdont vagy életet). Úgy vélem, morálisan az első típusú információt nem szabad kiszivárogtatni, a másodikat viszont szükséges lehet. Ez viszont technikailag lehet bravúros, hogy hogyan ítéli meg a gép, hogy egy beszélgetés mögötti szándék valós vagy színlelt (pl. „meg tudnám ölni” csak egy kifejezés szinten vagy valóban gyilkosságot tervez a felhasználó), valamint mi alapján osztályozza, hogy egy cselekedet emberi értékeket veszélyeztet vagy sem, anélkül, hogy minden beszélgetést kiszivárogtatna.
Úgy gondolom, az információ tárolására valamilyen középutat kéne találni. Esetlegesen a szoftver a beszélgetést követően fő gondolatpontokat leírhatna és azokat tárolhatná el, így a kisebb egységeket is egyszerűbb kezelni. Ugyanakkor itt felmerül a kérdés, hogy fagráf-szerűen eltároljon-e minden információt vagy mindig kérje be a felhasználótól az ismétlést. Ha ezt teszi, irritáló lehet az emberi felhasználónak, ellenkező esetben viszont megint az a kérdés, hogy mi történik ha részletes információt tárolunk.
A legegyszerűbb megoldás talán egy lokális tárolás lenne, azonban akkor felmerülnek a hardverköltségek. Ha különböző memóriaegységekben tároljuk a felhasználó információját, akkor nehezebb a kiszivárogtatás, valamint energetikailag gazdaságosabb lehet az adatok hozzáférése, mint ha felhőben dolgoznánk, de a hardvernek természetesen megvannak a maga hátrányai.
Továbbá figyelembe kell vennünk az átláthatóság kérdését is. Vitale kutatása szerint az adatkezelés átláthatóságának növelése javítja a felhasználói tapasztalatot, ugyanakkor nem talált elég bizonyítékot, hogy alátámassza, hogy növeli a felhasználó bizalmát is a gép felé. Ugyanakkor itt figyelembe kell venni, hogy amennyiben hozzáférést adunk a felhasználónak a róla gyűjtött adatokhoz, azzal nő a veszélye, hogy az kiszolgáltatottnak érzi magát, és teljesen elhatárolja magát a szoftvertől. Ennek ellenére etikai megfontolásból úgy vélem, mégis szükséges tudatosítani a felhasználóban, milyen információkkal rendelkezik a gép róla, mivel feltételezhetően így alaposabban megfontolja, milyen információkat oszt meg a robottal, és rajta keresztül a szoftver tulajdonosával.
Azt mondják, valamit valamiért, ritkán van olyan megoldás, amivel mindenki boldog. Középutat kell találni, amivel nem törjük össze a felhasználó alapvető bizalmát a robot felé, ugyanakkor mégis emberi kommunikáció jellegzeteségeit hordozza a gép. Az emberek sok információt megjegyeznek a beszélgetőpartnerükről, de messze nem mindent. Határvonalon kell egyensúlyozni, hogy mikor feledékeny a robot, és mikor ijesztően pontos a memóriája. Ugyanakkor vigyázni kell, mert ha túlságosan is hasonlóvá válik a gép kommunikációja (vagy megjelenése) az emberéhez, az további komplikációkhoz vezethet (példáért lásd: Müller et al.).
Idézett művek
Lee, Sun Kyong, and Juhyung Sun. “Testing a Theoretical Model of Trust in Human-Machine Communication: Emotional Experience and Social Presence.” Behaviour & Information Technology, Nov. 2022, pp. 1–14.
Lee, Yi-Chieh, et al. “‘I Hear You, I Feel You’: Encouraging Deep Self-Disclosure through a Chatbot.” Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, Apr. 2020.
Müller, Barbara C. N., et al. “I, Robot: How Human Appearance and Mind Attribution Relate to the Perceived Danger of Robots.” International Journal of Social Robotics, vol. 13, no. 4, June 2020, pp. 691–701.
Vitale, Jonathan, et al. “Be More Transparent and Users Will like You.” Proceedings of the 2018 ACM/IEEE International Conference on Human-Robot Interaction, Feb. 2018.