Ugrás a tartalomhoz
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Menü
  • MAGAZIN
  • BLOGTÉR
  • PODCAST
  • TV
  • GYŰJTEMÉNY
  • WEBSHOP
  • FOLYÓIRATOK
  • KIADÓ
Pató Viktória Lilla

Tudományos vészjelzés Európából

A Choose Europe és a kutatói kivándorlás dilemmája.

Pató Viktória Lilla 2025.06.04.
Rab Árpád

A megfoghatatlan kézzelfoghatóvá tétele?

Egy etikus mesterségesintelligencia-mérőrendszer felé.

Rab Árpád 2025.05.27.
Tardi Roland

A mesterséges intelligencia jelenléte a német politikában

Az MI új korszakot nyitott a választási kampányokban.

Tardi Roland 2025.05.20.
Balogh Zsolt György

Jog és logika – III. rész

A fuzzy logika a klasszikus logika kiterjesztése.

Balogh Zsolt György 2025.05.13.
Ződi Zsolt

A zürichi kutatók esete az etikus Reddittel

Kutatási szabadság és etikus tudomány a mesterséges intelligencia korában.

Ződi Zsolt 2025.05.06.
PÁK BLOG
Nyirkos Tamás
Nyirkos Tamás
tudományos főmunkatárs, NKE Politika- és Államelméleti Kutatóintézet
  • 2023.05.08.
  • 2023.05.08.

A mesterséges intelligencia istene

SZEMLE – Ian Hogarth írása a mesterséges intelligenciával kapcsolatos hitek és félelmek elemzésére vállalkozik: megerősítve, hogy a felmerülő problémák kezelése – minden technikai vonatkozása mellett is – elsősorban állami, politikai döntést igényel.

A ChatGPT 2022-es megjelenése óta egyre többen vetik fel, hogy a mesterséges intelligencia fejlesztésének visszafogása, törvényi szabályozása, de akár ideiglenes betiltása is indokolt lehet. Ezt vagy maguknak a fejlesztőknek kellene dicséretes (bár a technológiai haladás és a piacgazdaság logikája alapján nehezen elképzelhető) visszafogottsággal megtenniük, vagy ha ez nem megy, akkor a jogi és politikai döntéshozóknak kell közbeavatkozniuk. 

Mindez akkor is igaz, ha a ChatGPT egyelőre igen távol áll attól, amit „mesterséges általános intelligenciának” (AGI) nevezünk: valójában csupán egy olyan „nagy nyelvi modellel” (LLM) állunk szemben, amely szövegeket generál más, korábban létező szövegek alapján, miközben az ilyen módon előállított szövegek semmilyen bizonyítékot nem szolgáltatnak arra nézve, hogy a program valóban „gondolkodik” vagy „emberi módon” viselkedik, esetleg „öntudatra ébredt”, ahogy azt a Google korábbi fejlesztőmérnöke, Blake Lemoine megfogalmazta egy másik nagy nyelvi modell, a LaMDA kapcsán.

A bizonyítékok hiánya – és tegyük hozzá, elvi lehetetlensége – miatt a mesterséges intelligenciával kapcsolatos remények és aggodalmak egyaránt a hit szférájába tartoznak. Az egyik legjobb példa erre Ian Hogarth cikke, amely az „Istenszerű AI” veszélyeire figyelmeztet. A vallásos nyelvezet önmagában is figyelemreméltó, és jelen esetben egyáltalán nem metaforikus. Hogarth ugyanis, aki 2004 óta számos informatikai és gépi tanulást fejlesztő vállalkozás elindítója és támogatója, 2018 óta pedig a „Mesterséges intelligencia helyzete” (State of AI Report) jelentés egyik társszerzője, azt fejti ki cikkében, hogy a „szuperintelligens” számítógép, amely „autonóm módon tanul és fejlődik”, képes minden külső ellenőrzés nélkül megérteni és megváltoztatni saját környezetét, beleértve ebbe az emberi társadalmat is. Bár hozzáteszi, hogy egyelőre nem tartunk itt, a nagy átalakulás idejéről – akárcsak egy bibliai vagy középkori prófécia – nem közöl pontosabbat. A történelem menetéről igen, de ez igen rövid történelem: először csupán a 2012 és 2022 közötti időszakot tárgyalja, majd később az 1950-es és a 2020-as éveket hasonlítja össze, és ezekből extrapolálja a következő években várható fejlődést. Javára írható ugyanakkor, hogy világosan megkülönbözteti a tanulást és a fejlődést a megértéstől: a „performancia”, ahogy Rodney Brooks-ra hivatkozva írja, nem azonos a „kompetenciával”, ahogyan a szövegek „szintetizálására” való képesség sem azonos azok „jelentésének” felfogásával. Ami kétségtelenül igaz, csakhogy sajnálatos módon azt is hozzáteszi, hogy a mesterséges intelligencia a közeljövőben ennél komplexebb feladatokat is képes lesz elvégezni, tehát a hasonló elválasztások mégiscsak illuzórikusnak bizonyulnak.

Arra viszont helyesen hívja fel a figyelmet, hogy a mesterséges intelligencia veszélyei nem újkeletűek. A szakemberek (pl. Shane Legg, a DeepMind vezető kutatója) már a 2010-es években felhívták a figyelmet arra, hogy az „isten-szerű AI” igen hatékonyan meg tudna szabadulni az emberiségtől, ha ezt tartaná szükségesnek, ami persze nem tény, hanem egyfajta apokaliptikus prófécia. Ám az ellentétes nézet, tehát az, hogy az AI az emberiség soha nem látott felvirágzását – ha nem megváltását – fogja elhozni, hasonlóképpen hit kérdése, amelyről a fejlesztő cégek és azok vezetői önmagukat igyekeznek meggyőzni: feltéve persze, hogy ők lesznek az a papság, amely egyedül közvetít az isteni és az emberi szféra között.

Hogarth elemzése arra is kitér, hogy a fejlesztő cégek (gazdasági vállalkozások) mellett a nemzetállamok is ugyanebben a paradigmában gondolkodnak: polgári és katonai célokból egyaránt érdekükben áll a mesterséges intelligencia emberfelettivé fejlesztése, tekintet nélkül annak veszélyeire. Kína és az Egyesült Államok versengése („az újabb hidegháború”) persze közhelyszámba megy a kortárs politikai publicisztikában, de talán ennél is fontosabb, hogy miként fog működni a mesterséges intelligencia a belpolitikában, a társadalmi élet szabályozásában. Naivitás azt gondolni, hogy az „istenszerű AI” működése könnyedén összhangba hozható bizonyos általánosan elfogadott „emberi értékekkel”; egyrészt azért, mert ilyen általános elfogadott értékek eleve nem léteznek egy plurális társadalomban, másrészt azért, mert maga az autonóm gépi intelligencia is képes (vagy fejlődése során képes lesz) saját értékrendje kialakítására.

Hogy valóban így lesz-e, és ha igen, mikor, azt természetesen nem tudjuk, de éppen az a lényeg, hogy már ma sem értjük, hogyan működnek a számítógépes programok. Az 1990-es években egy programozó még világosan látta, hogyan következik egy adott inputból egy adott output, de a mesterséges intelligencia már önállóan oldja meg a problémát: nem azt közöljük vele, hogy mit tegyen, csupán azt, hogy mi a cél, amelyet el kell érnie. Minden más – a számítógép „kontrollálása”, „instruálása” és hasonlók – önmagunk becsapása, vagy ahogyan Hogarth mondja, egy olyan „kozmetikázás”, amely csupán a nagyközönséget igyekszik megnyugtatni afelől, hogy a technológia továbbra is az uralmunk alatt áll. 

Ez ugyanis maga is mítosz: a cikk utolsó részében Hogarth visszautal Elon Musk, Gary Marcus és Steve Wozniak (valamint további 1800 aláíró) legutóbbi nyilatkozatára, amely legalább féléves moratóriumot javasolt a mesterséges intelligencia fejlesztésével kapcsolatban, éspedig épp azért, mert talán az utolsó pillanatban vagyunk, amikor az említett kontroll még visszaszerezhető. Megjegyzi ugyanakkor, hogy ennek eddig sem volt – és várhatóan a közeljövőben sem lesz – jelentős hatása: amíg egy nagy katasztrófa rá nem ébreszti az emberiséget a mesterséges intelligencia veszélyeire, addig a hasonló figyelmeztetések pusztába kiáltott szavak lesznek. Megoldásként azonban ő maga sem tud mást javasolni, mint hogy a kormányzatoknak kell – a mesterséges intelligenciát fejlesztő cégek meghallgatása után – meghozni a megfelelő döntéseket, vagyis végső soron politikai akaratra van szükség. Bármilyen újszerű és példátlan is a probléma, a politika hagyományos intézményei és gyakorlatai nem megkerülhetők.

Nyitókép: Flickr / Marco Verch Professional Photographer

Témakörök: elemzés, hit, mesterséges intelligencia, prófécia, szabályozás
nke-cimer

LUDOVIKA.hu

KAPCSOLAT

1083 Budapest, Ludovika tér 2.
E-mail:
Kéziratokkal, könyv- és folyóirat-kiadással kapcsolatos ügyek: kiadvanyok@uni-nke.hu
Blogokkal és a magazinnal kapcsolatos ügyek: szerkesztoseg@uni-nke.hu

IMPRESSZUM

Ez a weboldal sütiket használ. Ha Ön ezzel egyetért, kérjük fogadja el az adatkezelési szabályzatunkat. Süti beállításokElfogad
Adatvédemi és süti beállítások

Adatvédelmi áttekintés

This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
Necessary
Always Enabled
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
SAVE & ACCEPT