Magas Bianka- Bányász Péter
Az infotechnológiai rendszerekről szeretjük azt gondolni, hogy pártatlanok, objektívek, nem lehet befolyásolni őket, tévedhetetlenek és alapvetően mentesek minden emberi előítélettől. Vagy mégsem? Lehet egy mesterséges intelligencia rasszista vagy nőgyűlölő? Ennek a kérdésnek jár utána a Netflix dokumentumfilmje, a Shalini Kantayya által rendezett Kódolt előítéletek.
A film kiindulópontja egy doktorandusz hallgató, Joy Buolamwini kutatása az arcfelismerő szoftverek területén. Munkája során észrevette, hogy problémát okoz a színes bőrű, különösen a nők arcának a felismerése bizonyos rendszereknek. Innen kísérhetjük végig útját, miközben részletes, világos képet kaphatunk arról, miért fontos ezzel most foglalkoznunk, hisz nem csak az arcfelismerő rendszerek kapcsán merülnek fel kódolt előítéletek. A 90 perces dokumentumfilmben többek között megszólal a big data sötét oldaláról Cathy O’Neil adattudós, a Weapons of Math Destruction című könyv szerzője is. Megismerkedhetünk Silkie Carlo révén a Big Brother Watch tevékenységével, amely az arcfelismerést rendvédelmi szervek általi alkalmazását figyelik Nagy- Britanniában. Elmagyarázzák miként sérthetik a biometrikus arcfelismeréses rendszerek használata a polgári szabadságjogokat, felhívva a figyelmet a növekvő esetszámokra, amikor a pontatlanságuk miatt tévesen azonosított ártatlan állampolgárokat bűnözők arcával. Megállapították, hogy az arcfelismerő rendszer használata 2% -os azonosítási pontosságot eredményezett a fővárosi rendőrség számára, míg a dél-walesi rendőrség esetében is csupán 8% a pontossága. A film premierjén, a Sundance filmfesztiválon a rendező elmondta, hogy „nem akarja megijeszteni az embereket, csupán tájékoztatni őket olyan dolgokról, amikről tudniuk kell”.
A dokumentumfilmben bemutatott eseten kívül nem ez az egyetlen, hogy rendvédelmi szervek a mesterséges intelligenciát hívták segítségül munkájuk során- mindezt titokban. 2018-ban a Palantir techcég fejlesztésével kapott el a New Orleans-i rendőrség egy bűnszervezet több tagját hálózatelemzés segítségével. Az algoritmusok nem csupán a rendvédelmi szerveknek nyújthatnak majd a jövőben segítséget. Kínában már alkalmaznak virtuális bírókat, amelyek rutinszerű alapfeladatok ellátására szolgálnak. De az Egyesült Államokban, illetve a világ számos országában is egyre több kezdeményezés születik a mesterséges intelligencia alkalmazására a bíróságokon. Ilyen fejlesztés továbbá egy visszaesés- kockázati algoritmus is, aminek segítségével elemezni lehet, hogy egy bűncselekménnyel gyanúsított személy hány százalékban valószínű, hogy újból bűncselekményt kövessen el. Amennyiben az algoritmus ennek valószínűségét magas értékkel jelöli, a bíró ez alapján magasabb büntetési tételt szabhat ki rá. Azonban kutatók felismerték, hogy a feketéket nagyobb arányban ítélte visszaeső bűnözőnek, mint a fehéreket. Ilyen fajta megkülönböztetést egy bíró sem alkalmazhat. További komoly kritika az algoritmussal szemben, hogy az üzemeltető vállalatok az algoritmusok működésének elvét üzleti titokként kezelik, holott minden állampolgárnak joga van tudni, hogy mi alapján ítélik el. Nem szabad elfelejteni a felelősségre vonás kérdését sem az esetlegesen bekövetkező hibák kacsán, hiszen kit vonunk felelősségre? A fejlesztőt? A gyártó céget? Ezek az etikai kérdések számtalanszor felmerülnek, ha az MI-ről tárgyalunk.
A probléma gyökere az, hogy hajlamosak vagyunk az MI-ra minden előítélettől mentesként tekinteni, elvégre számításokon alapuló gépekről beszélünk, mégis hogyan eshetnének ilyen hibákba, inkább tévedhetetlen, igazságosnak kéne lenniük. Azonban ezen rendszerek működésének alapja a beléjük táplát adat. A hatalmas adatmennyiségben gépi tanulás segítségével képes szabályszerűségeket keresni, majd a felismert minták segítségével később ismeretlen adatokról is döntést hozni. Ennek a döntésnek a pontossága azon múlik, mennyi adat áll rendelkezésre- minél több annál pontosabb. Azonban, ha ezek a rendszerek azokból az adatokból táplálkozik, melyeket mi „gyártunk” (és ami jelenleg és a történelem során is számtalanszor nem volt mentes a szexizmustól, rasszizmustól, homofóbiától), ezek az előítéletek belekerülhetnek az algoritmusba. Ha pedig lemásoljuk jelenlegi világunkat, nem érünk el a mesterséges intelligenciával a várt társadalmi fejlődést- csupán felnagyítjuk a visszásságokat.
Kiemelten fontos foglalkozni a mesterséges intelligencia visszásságaival, hisz egyre nagyobb hatást gyakorol társadalmunkra. Téves azt gondolni, hogy ezek csupán egy távoli utópia, a jövő társadalmának a problémái. Jelen helyzetben ott tartunk, hogy egy mesterséges intelligencia dönti el, mit látunk a világból, egyfajta „kapuőr” szerepet kezd betölteni. A Facebookról sem gondolták sokan, hogy milyen mértékben képes befolyásolni államok belpolitikai döntéshozatalát, mígnem a Cambridge Analytica botrány (és az általa alkalmazott algoritmus) fel nem hívta erre a globális figyelmet. Napjainkban 9 nagyvállalat- ilyen például a Facebook, Amazon- építik a jövőt a mesterséges intelligencia területén. Ezekhez pedig önként adjuk meg adatainkat a különböző szolgáltatások használata során, gondoljunk csak a Facebookra feltöltött képeinkre, sokszor úgy, hogy azt sem tudjuk mire fogják felhasználni. (Dehogynem: profitszerzésre.) Ahhoz, hogy minél jobb mesterséges intelligenciát alkossanak, minél több adatra van szükség- ami ahhoz vezet, hogy már a tévé is „néz” minket, ahogy azt Orwell 1984 című művében olvashattuk.
A dokumentumfilm egy rendkívül elgondolkodtató, nagyközönség számára is érthető alkotás, amely nem csak felhívja a figyelmet a problémákra, hanem cselekvésre is buzdít. Valóban igaz, hogy ha egy szebb jövőt szeretnénk, szükségünk van a megfelelő jogi keretek megszabására- erre iránymutató előrelépés az EU-ban a GDPR rendelet megalkotása- és a vállalatok részéről a transzparencia biztosítása.Lehetséges, hogy a nem is olyan távoli jövőben mesterséges intelligencia fogja eldönteni, alkalmasak vagyunk-e egy munkára, felvételt nyerhetünk-e egy képzésre, bűnösök vagyunk vagy ártatlanok. Ezekre már mind látunk kezdeményezéseket a világban. Ha pedig ez az algoritmus hemzseg az előítéleteinktől, nem fogja a társadalmat a legjobb irányba mozdítani.
Irodalom
Complex, Valerie, és Valerie Complex. „‘Coded Bias’: Film Review”. Variety (blog), 2020. február 13. https://variety.com/2020/film/reviews/coded-bias-review-1203502855/.
Monisha, Pillai. „China Now Has AI-Powered Judges”. RADII | Stories from the Center of China’s Youth Culture (blog), 2019. augusztus 16. https://radiichina.com/china-now-has-ai-powered-robot-judges/.
Winston, Ali. „Palantir Has Secretly Been Using New Orleans to Test Its Predictive Policing Technology”. The Verge, 2018. február 27. https://www.theverge.com/2018/2/27/17054740/palantir-predictive-policing-tool-new-orleans-nopd.