SZEMLE – Ian Hogarth írása a mesterséges intelligenciával kapcsolatos hitek és félelmek elemzésére vállalkozik: megerősítve, hogy a felmerülő problémák kezelése – minden technikai vonatkozása mellett is – elsősorban állami, politikai döntést igényel.
A ChatGPT 2022-es megjelenése óta egyre többen vetik fel, hogy a mesterséges intelligencia fejlesztésének visszafogása, törvényi szabályozása, de akár ideiglenes betiltása is indokolt lehet. Ezt vagy maguknak a fejlesztőknek kellene dicséretes (bár a technológiai haladás és a piacgazdaság logikája alapján nehezen elképzelhető) visszafogottsággal megtenniük, vagy ha ez nem megy, akkor a jogi és politikai döntéshozóknak kell közbeavatkozniuk.
Mindez akkor is igaz, ha a ChatGPT egyelőre igen távol áll attól, amit „mesterséges általános intelligenciának” (AGI) nevezünk: valójában csupán egy olyan „nagy nyelvi modellel” (LLM) állunk szemben, amely szövegeket generál más, korábban létező szövegek alapján, miközben az ilyen módon előállított szövegek semmilyen bizonyítékot nem szolgáltatnak arra nézve, hogy a program valóban „gondolkodik” vagy „emberi módon” viselkedik, esetleg „öntudatra ébredt”, ahogy azt a Google korábbi fejlesztőmérnöke, Blake Lemoine megfogalmazta egy másik nagy nyelvi modell, a LaMDA kapcsán.
A bizonyítékok hiánya – és tegyük hozzá, elvi lehetetlensége – miatt a mesterséges intelligenciával kapcsolatos remények és aggodalmak egyaránt a hit szférájába tartoznak. Az egyik legjobb példa erre Ian Hogarth cikke, amely az „Istenszerű AI” veszélyeire figyelmeztet. A vallásos nyelvezet önmagában is figyelemreméltó, és jelen esetben egyáltalán nem metaforikus. Hogarth ugyanis, aki 2004 óta számos informatikai és gépi tanulást fejlesztő vállalkozás elindítója és támogatója, 2018 óta pedig a „Mesterséges intelligencia helyzete” (State of AI Report) jelentés egyik társszerzője, azt fejti ki cikkében, hogy a „szuperintelligens” számítógép, amely „autonóm módon tanul és fejlődik”, képes minden külső ellenőrzés nélkül megérteni és megváltoztatni saját környezetét, beleértve ebbe az emberi társadalmat is. Bár hozzáteszi, hogy egyelőre nem tartunk itt, a nagy átalakulás idejéről – akárcsak egy bibliai vagy középkori prófécia – nem közöl pontosabbat. A történelem menetéről igen, de ez igen rövid történelem: először csupán a 2012 és 2022 közötti időszakot tárgyalja, majd később az 1950-es és a 2020-as éveket hasonlítja össze, és ezekből extrapolálja a következő években várható fejlődést. Javára írható ugyanakkor, hogy világosan megkülönbözteti a tanulást és a fejlődést a megértéstől: a „performancia”, ahogy Rodney Brooks-ra hivatkozva írja, nem azonos a „kompetenciával”, ahogyan a szövegek „szintetizálására” való képesség sem azonos azok „jelentésének” felfogásával. Ami kétségtelenül igaz, csakhogy sajnálatos módon azt is hozzáteszi, hogy a mesterséges intelligencia a közeljövőben ennél komplexebb feladatokat is képes lesz elvégezni, tehát a hasonló elválasztások mégiscsak illuzórikusnak bizonyulnak.
Arra viszont helyesen hívja fel a figyelmet, hogy a mesterséges intelligencia veszélyei nem újkeletűek. A szakemberek (pl. Shane Legg, a DeepMind vezető kutatója) már a 2010-es években felhívták a figyelmet arra, hogy az „isten-szerű AI” igen hatékonyan meg tudna szabadulni az emberiségtől, ha ezt tartaná szükségesnek, ami persze nem tény, hanem egyfajta apokaliptikus prófécia. Ám az ellentétes nézet, tehát az, hogy az AI az emberiség soha nem látott felvirágzását – ha nem megváltását – fogja elhozni, hasonlóképpen hit kérdése, amelyről a fejlesztő cégek és azok vezetői önmagukat igyekeznek meggyőzni: feltéve persze, hogy ők lesznek az a papság, amely egyedül közvetít az isteni és az emberi szféra között.
Hogarth elemzése arra is kitér, hogy a fejlesztő cégek (gazdasági vállalkozások) mellett a nemzetállamok is ugyanebben a paradigmában gondolkodnak: polgári és katonai célokból egyaránt érdekükben áll a mesterséges intelligencia emberfelettivé fejlesztése, tekintet nélkül annak veszélyeire. Kína és az Egyesült Államok versengése („az újabb hidegháború”) persze közhelyszámba megy a kortárs politikai publicisztikában, de talán ennél is fontosabb, hogy miként fog működni a mesterséges intelligencia a belpolitikában, a társadalmi élet szabályozásában. Naivitás azt gondolni, hogy az „istenszerű AI” működése könnyedén összhangba hozható bizonyos általánosan elfogadott „emberi értékekkel”; egyrészt azért, mert ilyen általános elfogadott értékek eleve nem léteznek egy plurális társadalomban, másrészt azért, mert maga az autonóm gépi intelligencia is képes (vagy fejlődése során képes lesz) saját értékrendje kialakítására.
Hogy valóban így lesz-e, és ha igen, mikor, azt természetesen nem tudjuk, de éppen az a lényeg, hogy már ma sem értjük, hogyan működnek a számítógépes programok. Az 1990-es években egy programozó még világosan látta, hogyan következik egy adott inputból egy adott output, de a mesterséges intelligencia már önállóan oldja meg a problémát: nem azt közöljük vele, hogy mit tegyen, csupán azt, hogy mi a cél, amelyet el kell érnie. Minden más – a számítógép „kontrollálása”, „instruálása” és hasonlók – önmagunk becsapása, vagy ahogyan Hogarth mondja, egy olyan „kozmetikázás”, amely csupán a nagyközönséget igyekszik megnyugtatni afelől, hogy a technológia továbbra is az uralmunk alatt áll.
Ez ugyanis maga is mítosz: a cikk utolsó részében Hogarth visszautal Elon Musk, Gary Marcus és Steve Wozniak (valamint további 1800 aláíró) legutóbbi nyilatkozatára, amely legalább féléves moratóriumot javasolt a mesterséges intelligencia fejlesztésével kapcsolatban, éspedig épp azért, mert talán az utolsó pillanatban vagyunk, amikor az említett kontroll még visszaszerezhető. Megjegyzi ugyanakkor, hogy ennek eddig sem volt – és várhatóan a közeljövőben sem lesz – jelentős hatása: amíg egy nagy katasztrófa rá nem ébreszti az emberiséget a mesterséges intelligencia veszélyeire, addig a hasonló figyelmeztetések pusztába kiáltott szavak lesznek. Megoldásként azonban ő maga sem tud mást javasolni, mint hogy a kormányzatoknak kell – a mesterséges intelligenciát fejlesztő cégek meghallgatása után – meghozni a megfelelő döntéseket, vagyis végső soron politikai akaratra van szükség. Bármilyen újszerű és példátlan is a probléma, a politika hagyományos intézményei és gyakorlatai nem megkerülhetők.
Nyitókép: Flickr / Marco Verch Professional Photographer