Skip to content
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • KERESÉS
Hárs András

Szabályozás hálójában: mesterséges intelligencia és emberi jogok

Ki hol tart a szabályozásban?

Hárs András 2022.11.30.
Nyitrai Endre

Internet of Things, azaz a dolgok internete

Több milliárd eszköz összekapcsolhatósága.

Nyitrai Endre 2022.11.09.
Nyitrai Endre

Adatok hálózatának jelentősége a kriminalisztikában

Úton a digitális profilalkotás felé.

Nyitrai Endre 2022.11.07.
Pató Viktória Lilla

Új javaslatok születtek a digitális piac felelősségi szabályainak korszerűsítésére

Körforgásos MI-felelősség.

Pató Viktória Lilla 2022.10.03.
Pünkösty András

Az adatetika irányai

A „mit lehet és mit szabad megtenni?” dilemma.

Pünkösty András 2022.08.16.
CYBERBLOG
Bányász Péter
Bányász Péter
NKE Kiberbiztonsági Kutatóintézet
  • 2021.04.28.
  • 2021.04.28.

Kódolt előítélet

Magas Bianka- Bányász Péter

Az infotechnológiai rendszerekről szeretjük azt gondolni, hogy pártatlanok, objektívek, nem lehet befolyásolni őket, tévedhetetlenek és alapvetően mentesek minden emberi előítélettől. Vagy mégsem? Lehet egy mesterséges intelligencia rasszista vagy nőgyűlölő? Ennek a kérdésnek jár utána a Netflix dokumentumfilmje, a Shalini Kantayya által rendezett Kódolt előítéletek.

A film kiindulópontja egy doktorandusz hallgató, Joy Buolamwini kutatása az arcfelismerő szoftverek területén. Munkája során észrevette, hogy problémát okoz a színes bőrű, különösen a nők arcának a felismerése bizonyos rendszereknek. Innen kísérhetjük végig útját, miközben részletes, világos képet kaphatunk arról, miért fontos ezzel most foglalkoznunk, hisz nem csak az arcfelismerő rendszerek kapcsán merülnek fel kódolt előítéletek. A 90 perces dokumentumfilmben többek között megszólal a big data sötét oldaláról Cathy O’Neil adattudós, a Weapons of Math Destruction című könyv szerzője is. Megismerkedhetünk Silkie Carlo révén a Big Brother Watch tevékenységével, amely az arcfelismerést rendvédelmi szervek általi alkalmazását figyelik Nagy- Britanniában. Elmagyarázzák miként sérthetik a biometrikus arcfelismeréses rendszerek használata a polgári szabadságjogokat, felhívva a figyelmet a növekvő esetszámokra, amikor a pontatlanságuk miatt tévesen azonosított ártatlan állampolgárokat bűnözők arcával. Megállapították, hogy az arcfelismerő rendszer használata 2% -os azonosítási pontosságot eredményezett a fővárosi rendőrség számára, míg a dél-walesi rendőrség esetében is csupán 8% a pontossága. A film premierjén, a Sundance filmfesztiválon a rendező elmondta, hogy „nem akarja megijeszteni az embereket, csupán tájékoztatni őket olyan dolgokról, amikről tudniuk kell”.

A dokumentumfilmben bemutatott eseten kívül nem ez az egyetlen, hogy rendvédelmi szervek a mesterséges intelligenciát hívták segítségül munkájuk során- mindezt titokban. 2018-ban a Palantir techcég fejlesztésével kapott el a New Orleans-i rendőrség egy bűnszervezet több tagját hálózatelemzés segítségével. Az algoritmusok nem csupán a rendvédelmi szerveknek nyújthatnak majd a jövőben segítséget. Kínában már alkalmaznak virtuális bírókat, amelyek rutinszerű alapfeladatok ellátására szolgálnak. De az Egyesült Államokban, illetve a világ számos országában is egyre több kezdeményezés születik a mesterséges intelligencia alkalmazására a bíróságokon. Ilyen fejlesztés továbbá egy visszaesés- kockázati algoritmus is, aminek segítségével elemezni lehet, hogy egy bűncselekménnyel gyanúsított személy hány százalékban valószínű, hogy újból bűncselekményt kövessen el. Amennyiben az algoritmus ennek valószínűségét magas értékkel jelöli, a bíró ez alapján magasabb büntetési tételt szabhat ki rá. Azonban kutatók felismerték, hogy a feketéket nagyobb arányban ítélte visszaeső bűnözőnek, mint a fehéreket. Ilyen fajta megkülönböztetést egy bíró sem alkalmazhat. További komoly kritika az algoritmussal szemben, hogy az üzemeltető vállalatok az algoritmusok működésének elvét üzleti titokként kezelik, holott minden állampolgárnak joga van tudni, hogy mi alapján ítélik el. Nem szabad elfelejteni a felelősségre vonás kérdését sem az esetlegesen bekövetkező hibák kacsán, hiszen kit vonunk felelősségre? A fejlesztőt? A gyártó céget? Ezek az etikai kérdések számtalanszor felmerülnek, ha az MI-ről tárgyalunk.

A probléma gyökere az, hogy hajlamosak vagyunk az MI-ra minden előítélettől mentesként tekinteni, elvégre számításokon alapuló gépekről beszélünk, mégis hogyan eshetnének ilyen hibákba, inkább tévedhetetlen, igazságosnak kéne lenniük. Azonban ezen rendszerek működésének alapja a beléjük táplát adat. A hatalmas adatmennyiségben gépi tanulás segítségével képes szabályszerűségeket keresni, majd a felismert minták segítségével később ismeretlen adatokról is döntést hozni. Ennek a döntésnek a pontossága azon múlik, mennyi adat áll rendelkezésre- minél több annál pontosabb. Azonban, ha ezek a rendszerek azokból az adatokból táplálkozik, melyeket mi „gyártunk” (és ami jelenleg és a történelem során is számtalanszor nem volt mentes a szexizmustól, rasszizmustól, homofóbiától), ezek az előítéletek belekerülhetnek az algoritmusba. Ha pedig lemásoljuk jelenlegi világunkat, nem érünk el a mesterséges intelligenciával a várt társadalmi fejlődést- csupán felnagyítjuk a visszásságokat.

Kiemelten fontos foglalkozni a mesterséges intelligencia visszásságaival, hisz egyre nagyobb hatást gyakorol társadalmunkra. Téves azt gondolni, hogy ezek csupán egy távoli utópia, a jövő társadalmának a problémái. Jelen helyzetben ott tartunk, hogy egy mesterséges intelligencia dönti el, mit látunk a világból, egyfajta „kapuőr” szerepet kezd betölteni. A Facebookról sem gondolták sokan, hogy milyen mértékben képes befolyásolni államok belpolitikai döntéshozatalát, mígnem a Cambridge Analytica botrány (és az általa alkalmazott algoritmus) fel nem hívta erre a globális figyelmet. Napjainkban 9 nagyvállalat- ilyen például a Facebook, Amazon- építik a jövőt a mesterséges intelligencia területén. Ezekhez pedig önként adjuk meg adatainkat a különböző szolgáltatások használata során, gondoljunk csak a Facebookra feltöltött képeinkre, sokszor úgy, hogy azt sem tudjuk mire fogják felhasználni. (Dehogynem: profitszerzésre.) Ahhoz, hogy minél jobb mesterséges intelligenciát alkossanak, minél több adatra van szükség- ami ahhoz vezet, hogy már a tévé is „néz” minket, ahogy azt Orwell 1984 című művében olvashattuk.

Jelenet az 1984 című filmből 

A dokumentumfilm egy rendkívül elgondolkodtató, nagyközönség számára is érthető alkotás, amely nem csak felhívja a figyelmet a problémákra, hanem cselekvésre is buzdít. Valóban igaz, hogy ha egy szebb jövőt szeretnénk, szükségünk van a megfelelő jogi keretek megszabására- erre iránymutató előrelépés az EU-ban a GDPR rendelet megalkotása- és a vállalatok részéről a transzparencia biztosítása.Lehetséges, hogy a nem is olyan távoli jövőben mesterséges intelligencia fogja eldönteni, alkalmasak vagyunk-e egy munkára, felvételt nyerhetünk-e egy képzésre, bűnösök vagyunk vagy ártatlanok. Ezekre már mind látunk kezdeményezéseket a világban. Ha pedig ez az algoritmus hemzseg az előítéleteinktől, nem fogja a társadalmat a legjobb irányba mozdítani.

Irodalom

Complex, Valerie, és Valerie Complex. „‘Coded Bias’: Film Review”. Variety (blog), 2020. február 13. https://variety.com/2020/film/reviews/coded-bias-review-1203502855/.

Monisha, Pillai. „China Now Has AI-Powered Judges”. RADII | Stories from the Center of China’s Youth Culture (blog), 2019. augusztus 16. https://radiichina.com/china-now-has-ai-powered-robot-judges/.

Winston, Ali. „Palantir Has Secretly Been Using New Orleans to Test Its Predictive Policing Technology”. The Verge, 2018. február 27. https://www.theverge.com/2018/2/27/17054740/palantir-predictive-policing-tool-new-orleans-nopd.

Témakörök: algoritmus, bűnmegelőzés, előítélet, hálózat, mesterséges intelligencia
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT