A mesterséges intelligencia és a gépi tanulás fogalma John McCarthy stanfordi professzor nevéhez kötődik. A paradigma túlmutat az információtechnológiai iparágon és beépül az összes ágazatba, a gazdaság minden aspektusába, megjelenik a mindennapi életünk valamennyi területén. Új iparágakat hoz létre és átformálja a jelenlegi tevékenységeinket, megjelenik az innováció valamennyi – technológiai és nem-technológiai – területén. Hatása van valamennyi tudományterület fejlődésére és felerősíti a technológiai konvergenciát, „megváltoztatja a társadalmi létformákat” (Szalavetz, 2018).
A következő bejegyzésekben majd az MI – sokszor meglepő – alkalmazási területeiről szemlézek, ezért előrevetítve fontosnak tartottam leszögezni, hogy a lehetőségek mellett a technológia számos korláttal, veszéllyel és fenyegetéssel is szolgálhat.
A cikkében Thomas (2020) a következő hat pillér mentén foglalja össze a fenyegetéseket:
- automatizációalapú munkahely-megszüntetések,
- adatvédelem megsértése,
- „deepfakes”,
- algoritmustorzulás rossz adatok miatt,
- társadalmi-gazdasági egyenlőtlenségek,
- fegyverek automatizálása.
Először is szükséges leszögezni, hogy a gépi tanulás korlátját jelenti maga az ember. Milyen útmutatásokat, irányokat ad a gépeknek, hogyan orientálja a feladatelvégzést? Hiszen bármilyen izgalmasnak tűnik is egy-egy ilyen rendszer – egyelőre – még nem beszélhetünk öntudatra ébredt intelligenciákról. Szemléletes példa a rossz feladatkiszabásra az automatikus lejátszási listáknál célként kitűzött nézőszám növelés. Itt a program tapasztalatai alapján sikereket ér el azzal, ha összeesküvés-elméletekről játszik be videókat, így eszerint jár el. Egyértelmű, hogy nem jár el „rosszhiszeműen”, hiszen a tartalmat nem tudta elemezni, csak a kitűzött növekedési célt igyekezett teljesíteni, ugyanakkor az emberi kontroll már megkérdőjelezi a rossz definícióból eredő eszköztárat. (Shane, 2019) De hogyan is lehetne megfelelően, egyúttal tökéletesen értéksemlegesen iránymutatást adni?
Ugyanígy az emberi tényező veszélyeit mutatta be Tay, a Microsoft által kifejlesztett chatbot. A 2016-os kísérlet célja volt, hogy a program Twitter-en, a felhasználókkal beszélgetve tanuljon nyilvánosan elérhető adatok alapján, így azonban Tay 24 órán belül az internet legsötétebb oldalát tükrözte rasszista, nőgyűlölő kommentjeivel, így a kísérletet le kellett állítani. Ugyan a kísérlet kudarcba fulladt, annak a veszélyére mindenképpen felhívta a figyelmet, mi történik, ha egy algoritmus által tükröt tartunk az emberiség elé. (Vincent, 2016)
Torzítani azonban egy algoritmus is képes, a „deepfake” technológia a manipulálást képes tökéletesre fejleszteni hamis videófelvételekkel, amelyek új típusú zsaroló levelek megjelenését vetítik elő, hiszen egy közösségi oldalról letöltött kép alapján már bármilyen kényes szituációba (akár egy baleset okozása, akár felnőttfilmek) belehelyezhetnek gyakorlatilag bárkit. Ugyanez a technológia az álhírek új generációjának is melegágya lesz.
Van egy másik társadalmi aspektusa is a kérdésnek. A mesterséges intelligencia, mint felforgató technológia a munkavégzés módját is átalakítja. Ma már nem az a kérdés, hogy „lecserél-e majd bizonyos munkaköröket, hanem hogy milyen mértékben” (Thomas, 2020) veszi át az emberek helyét. A korábbi ipari forradalmaknak megfelelően képes lesz az emberiség most is alkalmazkodni a munkaerőpiac változásaihoz? Számtalan elméleti alternatíva létezik már a kérdés kapcsán, de ezeket csak az idő tudja igazolni.
Források:
Andrea Szalavetz (2018) Néhány gondolat Szanyi Miklós: „Műszaki fejlődés és hosszú távú gazdasági ciklusok” című írása ürügyén, in Műszaki fejlődés és hosszú távú gazdasági ciklusok, Műhelytanulmányok, ISSN 1417-2720; 122. (Budapest: MTA Közgazdaság- és Regionális Tudományi Kutatóközpont, Világgazdasági Intézet), 38–48.
James Vincent (2016): Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. The Guardian / The Verge. https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist
Janelle Shane (2019): The danger of AI is weirder than you think. TED Talk. https://www.ted.com/talks/janelle_shane_the_danger_of_ai_is_weirder_than_you_think
Mike Thomas (2020): Six dangerous risks of artificial intelligence. Built In. https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence