Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • OPEN ACCESS
Petruska Ferenc

A multimodális rendszerek kockázatai háborúban

Kétélű fegyver, hiszen nemcsak biztonságot és védelmet nyújt, hanem veszélyeket hordoz.

Petruska Ferenc 2025.07.15.
Taraczközi Anna

Az EU kutatási keretprogramjának megújítása

Középpontban a „dual‑use by design”.

Taraczközi Anna 2025.07.04.
Lábody Péter

MI-útmutató

Komoly kihívássá vált az etikus és átlátható működés.

Lábody Péter 2025.07.01.
Pünkösty András

Lehet-e jól szabályozni a generatív MI kockázatait?

Tisztul a kép a garanciák biztosításának mikéntjével kapcsolatban.

Pünkösty András 2025.06.24.
Szatmári Gréta

Verseny a jövőért

Az FP10 és a „widening” vitája a következő MFF uniós kutatásfinanszírozásában.

Szatmári Gréta 2025.06.16.
ITKI BLOG
Pünkösty András
Pünkösty András
tudományos munkatárs, NKE Információs Társadalom Kutatóintézet
  • 2024.11.29.
  • 2024.11.29.

Bízhatunk-e a mesterséges intelligenciában?

A mesterségesintelligencia-rendszerek robbanásszerű fejlődése sokakat aggodalommal tölt el. Az aggodalom mögött a nagyon gyors fejlődéssel kapcsolatos bizonytalanságok állnak, a jelenleg megszokott életünket az MI várhatóan rövid úton radikálisan meg fogja változtatni. Alapvető kérdés, hogy vajon ez a változás helyes mederben tartható-e? És ezen a ponton egyből nehézségbe ütközünk, mert a jó és rossz megítélése filozófiai kérdés. Tehát hiába tekintünk az etikára, mint egy lehetséges garanciális megközelítésre, ha nem jutunk egyetértésre abban, hogy mi (számunkra) a jó, és azt hogyan lehet érvényesíteni? A jelen blogbejegyzés az Információs Társadalom Kutatóintézet friss reprezentatív kutatásának eredményei alapján vizsgálja, hogy a magyar társadalom hogyan viszonyul az MI-hez, és egy értelmezési keretet kínál fel Ferenc pápa munkásságához köthetően.

Mi lehet az etikai diskurzus értelme?

A megfelelő etikai keretek kidolgozása fontos garanciális lehetőséget jelent az MI biztonságos használatával kapcsolatban. Ugyanakkor az etikai elvek nem jogilag kikényszeríthető normák, így ha a fejlesztők, üzemeltetők vagy a felhasználók átlépik a kijelölt határvonalat, akkor az súlyos kockázatokat hordozhat magában. Ráadásul az etikai gondolkodás egy nagyon kifinomult, de egyúttal szerteágazó megközelítés, amelyet különböző filozófiai alapokon lehet művelni. Fontos tisztán látni, hogy milyen etikai narratíván belül helyezkedik el az adott alapállás, hiszen eltérő előfeltevésekből más-más következtetésre lehet jutni. Nem érdektelen a megközelítés adott problémával kapcsolatos relevanciája, illetve a gondolkodás horizontja. Két dolog biztosan állítható: egyfelől éppen a technológiai fejlődés drámai sebessége miatt kiemelkedően fontos az etikai gondolkodás, hiszen a technológiai fejlődés olyan új hatásokkal jár és élethelyeteket eredményez, amelyek korábban nem léteztek, így azok értelmezése elengedhetetlen; másrészről az MI-rendszerekkel kapcsolatban álló valamennyi szereplő – a fejlesztéstől a felhasználóig – felelős és etikus hozzáállására szükség van ahhoz, hogy az MI-rendszerek megfelelő irányba fejlődjenek.

Tudjuk-e definiálni a mesterséges intelligenciát?

Sokáig alapvető kihívást jelentett az MI tárgyilagos megítélésével kapcsolatosan, hogy nem létezett egy általánosan elfogadott MI-definíció. Ez nem csupán a szélesebb közönség számára jelentett gondot, de tudományos igényű diskurzusok esetében is kézzelfogható volt az a jelenség, hogy az egyértelmű közös kiindulópont hiánya miatt csupán mérsékelt eredményekkel kecsegtetett a közös gondolkodás. Az első átfogó MI-szabályozás, az EU mesterséges intelligencia rendelete már rendelkezik egy általánosan elfogadott definícióval (EU MI-rendelet 3. cikk), de ez csupán részben orvosolja a problémát. A technológiai fejlődés továbbra is rendkívül gyors, amelyet nagyon nehéz követni. A bölcselet-, illetve társadalomtudományi és mérnöki / technológiai ismeretek ritkán járnak kéz a kézben, így kevés szakember érti igazán mélyen mind a két területet. Végül a generatív mesterséges intelligencia 2022-ben történő megjelenése olyan általános célú felhasználásra tesz lehetőséget, hogy jelenleg nem tudjuk beleilleszteni jelenlegi kereteinkbe, szétfeszíti azokat.

Mi a szabályozás szerepe?

Az EU MI-rendelete az első kikényszeríthető jogi norma az MI-rendszerek üzemeltetőivel szemben. Az európai alkotmányos értékek között hagyományosan kiemelt fontosságú az emberi méltóság védelme, és az európai MI-szabályozás is az emberközpontú és megbízható MI-rendszerek működését kívánja szavatolni. A rendelet az uniós szakértők etikai iránymutatása alapján készült. Számos kritika is felmerül azzal kapcsolatban, hogy az uniós túlszabályozás miatt hátrányba kerül az európai gazdaság, ugyanakkor ez ennél egy sokkal összetettebb probléma, másfelől az ember középpontba helyezésével az uniós szabályozás éppen a bizalmat tudja megfelelően támogatni azzal, hogy az MI-rendszerek kockázatait felméri, és ez alapján bizonyos alkalmazásokat tilt, illetve azzal arányos garanciák biztosítására kötelezi az üzembentartókat. Ahogy az UNESCO jelentése rámutat, globális szinten számos szabályozási irány létezik, amelyek közül az uniós kockázatalapú és termékfelelősségi eszközzel kívánja a technológiát emberközpontúvá tenni. Ez végső soron a helyes bizalomi szint kialakítását segíti társadalmi szinten, amely kérdés régóta joggal foglalkoztatja a kutatókat is[1].

Kiválthatja-e a mesterséges intelligencia az embert és az emberi bölcsességet?

Az MI a rendelkezésére álló adatok és számítási kapacitásai révén számos esteben sokkal hatékonyabban old meg feladatokat, mint maga az ember. De vajon mi a határa a hatékonyság extrém privilegizálásának, és hol van szükség emberi közreműködésre? AZ ITKI reprezentatív attitűdkutatásában arra is kereste a választ, hogy melyek azok a területek, ahol az emberi jelenlét szerintünk nem kiváltható és az emberi minőség pótolhatatlan. A magyar társadalom válaszaiból egyértelműen kiderül, hogy szívesen vesz igénybe MI-rendszereket olyan területeken, ahol a számítási kapacitás fontosabb, mint az összetett érzelmi viszonyok. Így például orvosi diagnosztika vagy jogi esetekben is szívesen veszünk tanácsot a MI-től, de párkapcsolati vagy nevelési ügyekben ehhez képest csak elhanyagolható mértékben vennénk igénybe.

Az alábbiak közül Ön hol venné igénybe mesterséges intelligencia segítségét?

Figyelemre méltó, hogy bár orvosi diagnosztikában nagy hajlandóság mutatkozik az MI segítségének igénybevételére (70%), de ha a kérdés úgy szól, hogy kit választanánk inkább egy egészségügyi kezelés esetén, egy orvos mesterséges intelligenciát, amelybe betáplálják a legfrissebb kutatási eredményeket és fáradhatatlan vagy egy emberorvost, akivel beszélgetni is lehet, akkor 65,9% az ember választaná, csak 28,4% a mindentudó MI-t. Hasonló arány rajzolódik ki akkor is, ha ápolással kapcsolatos dilemmával szembesülünk. Ha választani kellene kizárólagos jelleggel az időskori betegellátás esetén, hogy intelligens robotápoló segítségét vennénk igénybe, amely folyamatosan magas színvonalon és kizárólagosan áll rendelkezésünkre vagy szakképzett ember ápolót, aki csak alkalmanként a legszükségesebbet tudja elvégezni számunkra, a magyar társadalom 62,9%-a akkor is a betegápolót választaná, csak 33,6%-a a készenlétben levő robotot.

Ha azt akarjuk megragadni, hogy mi az a sajátosan emberi jelenség, ami az emberi élethez kötődő, eleven és egzisztenciális kérdéseket érint, akkor ide tartozik egy klasszikus értelemben vett filozófiai felvetés, az (élet)bölcsesség keresése[2]. A magyar társadalom ezt sajátos emberi dolognak tartja és mindössze 22,7%-a gondolja úgy, hogy a mesterséges intelligencia a jövőben kiválthatja a jó élethez szükséges emberi bölcsességet. (Ha ezt elfogadjuk, akkor azt is gondolhatjuk, hogy a bölcsesség több mint csupán komplex számítási kapacitás.)

Mit mondhatunk „teremtésvédelmi” alapon a mesterséges intelligenciáról?

Bár Ferenc pápa az első körlevelét (Ludato si’, 2015) a szociális enciklikák közé sorolja, mégis sokan ütötték rá a „zöld enciklika” jelzőt, amelyet ő rendre helyreigazít[3]. A teremtett világért vállalt felelősség számára nem egy kontextuson kívüli valóság beemelése a szociális tanításba, és nem is pusztán egy divatos irányzat felkarolása. Az emberi közösségekért és ökológiai rendszerekért való együttes felelősségvállalás olyan felismerésen alapszik, amely az elmúlt bő évszázadban fokozatosan érlelődött meg. A tudományos és egyházi körökben is magától értetődő a nézet, miszerint a társadalom boldogulása a környezettel harmonikus viszonyban valósulhat meg[4]. De mit mondhatunk ennek a nézőpontnak a mentén az MI-ről? A következőkben három pontra szeretném felhívni a figyelmet. 

Ferenc pápa G7 országok vezetőinek találkozóján mondott beszédében egyszerre „lenyűgözőnek és iszonyatosnak” nevezte az MI-rendszerekben rejlő potenciált. Rögzítette, hogy egyetlen gép sem dönthet arról, hogy elveszi-e az ember életét. Ezen az első ponton úgy tűnik, hogy reális kockázattal nézünk szembe. Katonai szakértők elmondása alapján hadászati körökben népszerűek az autonóm fegyverrendszerek, hiszen rendkívüli hatékonysággal derítik fel és semmisítik meg az ellenséges célpontot. Ferenc pápa szerint a beláthatatlan lehetőségek miatt mindent meg kell tenni, hogy az MI-t csak az emberiség javára lehessen felhasználni és érvényesüljön az „eltéríthetetlenség” feltétele. A második fontos kapcsolódó szempont az újítás (innováció) és a fejlődés közötti különbségtétel. Paolo Benanti teológus az ENSZ MI-szakértői bizottságának tagja rámutat, hogy az innováció, illetve technológiai haladás az a képesség, hogy valamit egyre hatékonyabban és hatásosabban tudjunk cselekedni (pl. dinamithoz képest az atombomba komoly innováció). A fejlődés viszont a technológiai innováció olyan módja, ami a társadalmi jót, a közjót is szem előtt tartja. Ezért az MI fejlődésének a közjót kell szem előtt tartania. Harmadik pont az ember elsődlegessége. Ebbe nem csupán az emberre irányuló, az emberek jólétének és átfogó fejlődésének javítását szolgáló fejlődés kapcsolódik, hanem hogy különbséget is kell tenni az ember és gép között.

Ferenc pápa szerint látni kell, hogy az algoritmus bár látszólag csodálatos módon tud önállóan dönteni, az egy technikai választás számos lehetőség közül, míg az ember nem csak választani tud, de „szívében dönteni is képes”. Ez utóbbi a maga összetettségével is egy más minőségű folyamat, ezért különbséget kell tenni ember és gép között, és biztosítani kell, hogy meghatározó kérdésekben az ember döntési szabadsága és annak kontrollja fennmaradjon, mivel az emberi méltóság forog kockán. Mindezt jelentős kihívás elé állítja a magyar társadalom többségek megítélése, mivel 41% gondolja úgy, hogy „emberben bízhat, a robotban nem” és 50,3% szerint ez az állítás nem igaz.

Felhasznált irodalom

[1] Mariarosaria Taddeo, „Trusting Digital Technologies Correctly”, Minds and Machines 27, sz. 4 (2017. december 1.): 565–68.

[2] Dr. Török Csaba: Bölcsességkeresők. Budapest, 2009. La’Harmattan

[3] Nevelős Gábor SJ: A Laudato si’ enciklika a jezsuita lelkiség fényében in Átfogó ökológia: Párbeszéd a hit és tudomány között a Laudato si’ enciklika jegyében, Agóra, 2022. 36.

[4] Uo.

Témakörök: etika, felmérés, kutatás, mesterséges intelligencia
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT