Összekeverni Michelle Obamát egy gorillával? A Google képkereső algoritmusa elkövette ezt a hibát – a fiaskó a tanítóadatoknak tudható be. A kapcsolódó adatvédelmi kérdések is szóba kerültek A mesterséges intelligencia hatása az alapjogokra címmel rendezett konferencia egyik délutáni szekcióülésén.
„Az informatikára vonatkozó törvények egy része betarthatatlan, a másik részéről az informatikai szakembereknek nyilvánvaló, hogy ostobaság, miközben sok olyan szabályozandó terület lenne, amelyhez a törvényhozók hozzá sem nyúlnak” – így kezdte Csáki Csaba, a Budapesti Corvinus Egyetem docense az előadását. A mesterséges intelligenciának (MI) nevezett fejlett algoritmusok a bevitt adatokból tanulnak, képesek befolyásolni környezetüket, és olyan döntéseket is hozhatnak, amelyet a programozók nem feltétlenül látnak előre. Ezek az algoritmusok az absztrakt gondolkodásban gyengék, de igen erősek lehetnek konkrét, ismétlődő rutinfeladatok megoldásában, amelyek során az ember hajlamos sokat hibázni. Viszont az olyan adatvédelmi szabályozások, mint például a GDPR, szerinte jelentősen hátráltatják az európai MI-kutatásokat, miközben Amerikában a cégekbe vetett fogyasztói bizalom, illetve Kínában az állami erőszak támogatja ezeket a fejlesztéseket.
Hová vezet az adatéhség?
A gépi tanulás szekció előadói hangsúlyozták: a mesterséges intelligenciának óriási mennyiségű adatra van szüksége, ebből tud modellt létrehozni, mintákat felismerni és a tanulságokat levonni. A modell szükségszerűen leegyszerűsíti a valóságot, ezért egyelőre inkább döntéstámogató, mint döntéshozó lehet a mesterséges intelligencia.
Ha az MI tanításához rengeteg adatra van szükség, akkor bizony felmerül az adatvédelem kérdése – hívta fel az európai szempontra a figyelmet Eszteri Dániel, a Nemzeti Adatvédelmi és Információszabadság Hatóság főosztályvezető-helyettese. Nem vitatta, hogy okozhat nehézséget a GDPR betartása, ugyanakkor ez éppen a felhasználók érdekében emel gátakat az adatok korlátlan felhasználása elé.
A jogszerű adathasználat kérdései
A GDPR ismeri a profilalkotás és az automatizált döntéshozatal fogalmait – az európai általános adatvédelmi rendelet főszabály szerint ezt megtiltja abban az esetben, ha az algoritmus döntéséhez joghatás is kapcsolódik (például egy repülőtéren a becsekkolás lehetősége automatizált döntéssel nem dőlhet el). Ugyanakkor az MI létrehozása során szerződéssel szabályozható az adatok legális felhasználása. Ha a fejlesztők jogszerűen akarnak dolgozni, akkor figyelembe kell venniük a GDPR-ajánlását: korlátozott mennyiségű tesztadattal kell tanítaniuk az algoritmust (például az önvezető autók szoftverét), majd az éles rendszert is monitorozni kell adatvédelmi szempontból.
A kutatók szóba hozták a fekete doboz jelenségét: a tanulás során az MI olyan döntéseket hoz, amelyeket már a fejlesztők sem tudnak megmagyarázni. Az adatkezelésnek a GDPR alapján ilyenkor is átláthatónak kell lennie. A törvény szerint fekete doboz esetén is tájékoztatni kell a felhasználót az adatkezelés tényéről, az alkalmazott logikáról és a várható következményekről. A gyakorlatban ezt úgy tudják jól megvalósítani a fejlesztők, ha az MI mellett elérhető egy egyszerű nyilvános tesztrendszer is, ahol információt kaphatnak a felhasználók. Például egy tesztrendszeren maguk nézhetik meg, hogy adataik alapján jogosultak-e egy hitelre. A GDPR szerint fent kell tartani az emberi beavatkozás kérésének lehetőségét is – azaz például meg kell vizsgálni, ugyanez a döntés született volna-e, ha az adatokat nem az algoritmus bírálja el.
Diszkriminál-e a robot?
Vadász Pál, az NKE Információs Társadalom Kutatóintézetének kutatója a bevitt adatok torzulására, torzítására is felhívta a figyelmet. A legtöbbször ugyanis nem az algoritmus hibázik, hanem a tanítóadatok hibásak, rosszul kiválasztottak vagy épp szándékosan mérgezettek. Példákat is hozott: a Google számára nagyon kellemetlen volt, hogy a képkereső algoritmus összekeverte Michelle Obamát a gorillával. Emlékezetes fiaskó volt a Microsoft mesterséges intelligencián alapuló Twitter-fiókja is, amely alig 24 óra alatt Hitlert éltető nácivá vált a tanítási adatok torzítása miatt. A chatbotot úgy tervezték, hogy tanuljon az online beszélgetésekből, és folyamatosan javítsa magát annak segítségével, amit a felhasználók mondanak neki. Ez a tanulás olyan „remekül” sikerült, hogy a fiók elkezdte ismételgetni az ötleteiket más beszélgetőpartnereknek, és szinte pillanatok alatt rasszistává vált.
Létezhet bőrszín szerinti szempontrendszer?
Sok vita övezi az USA bíróinak döntését segítő intelligencia, a COMPAS működését is, amely abban ad tanácsot, hogy előzetes letartóztatásban kell-e tartani a gyanúsítottat vagy sem. A COMPAS előre meghatározott szempontok alapján ad pontokat minden terheltnek, annak kapcsán, hogy esetében mennyire valószínű a bűnismétlés vagy a szökés esélye. A szabály szerint 7 pont alatt szabadon távozhatnak, 7 fölött rács mögött maradnak. A rendszer használata során kiderült, hogy a színes bőrű terheltek sokkal nehezebben érnek el 7 alatti pontot, mint a többi terhelt, noha a rassz nem szerepelt az elemzendő adatok között. A rendszer alaposabb vizsgálata során az derült ki, hogy azt nem lehet pontosan definiálni, mit jelent az, hogy egy algoritmus tisztességesen jár el. Egyes vélemények szerint a fekete bőrű terhelteknek más pontrendszer kellene, de ez természetesen jogi paradoxon lenne. A probléma feloldására végül a vonatkozó jogszabályból az amerikai törvényhozók kivették a fairness (magyarul: tisztességes eljárás) fogalmát, hiszen az nem definiálható matematikailag. A meglévő hibák ellenére az mégis nyilvánvaló, hogy a mesterséges intelligencia nem korrupt, nem tud fentről telefont kapni, nincs előítélete vagy rossz napja, tehát használatához jogos érdeke fűződik a társadalomnak.