Az OpenAI esete Olaszországgal, hónapokon át húzódó európai reakciók egy percről-percre változó technológiai térben
Megkérdeztem a ChatGPT-t, hogy mit gondol, milyen kockázatot lát benne az Európai Unió: az adatvédelem hiányát, a megkülönböztetést és a biztonsági kitettségeket emelte ki. Jelen bejegyzés bemutatja, hogy Olaszország milyen kockázati elemek miatt korlátozta ideiglenesen a ChatGPT használatát, hogyan reagált erre az OpenAI, mit igyekszik tenni az Európai Unió és mit gondol Elon Musk.
Olaszország 2023 március 30-án, az európai országok közül elsőként (Oroszország, Kína, Észak-Korea, Kuba, Irán és Szíria után) ideiglenesen korlátozta a ChatGPT használatát azzal, hogy április végére az alkalmazást üzemeltető, kaliforniai székhelyű OpenAI feleljen meg az európai adatbiztonsági követelményeknek. A Garante, az olasz adatvédelmi hatóság a ChatGPT átmeneti betiltásakor (geoblokkolásakor) hangsúlyozta, hogy a chatbot működése nem felel meg az adatvédelmi törvénynek. Az olasz hatóság a személyes adatok illegális gyűjtését és a kiskorúak védelmében az életkor ellenőrzésére szolgáló rendszerek hiányát találta a legsúlyosabb jogsértésnek. Az olasz felhasználók védelme érdekében a hatóság elrendelte az adataik kezelésének ideiglenes korlátozását a platformot fejlesztő OpenAI céggel szemben, egyúttal vizsgálatot kezdeményezett. Olaszország arra az adatszivárgási botrányra is reagált ezzel, amely március 20-án törte meg a ChatGPT körüli rózsaszín ködöt, amikor kiderült, hogy több százezer felhasználó beszélgetése és az előfizetők személyes adatai napvilágra kerültek. Az OpenAI által közzétett felhasználói feltételek ugyan kimondják, hogy a szolgáltatást a 13 éven felülieket célozza, azonban a felhasználók életkorának ellenőrzésére szolgáló szűrő nem létezik. A hatóság húsz napon belüli válaszadásra szólította fel a kaliforniai céget, amely az Európai Unióban székhellyel nem rendelkezik ugyan, de az EGT-n belül kijelölt képviselője van. Amennyiben a vitát továbbra sem rendezik, az olasz hatóság 20 millió euró pénzbírságot vagy a vállalat globális éves forgalmának 4%-át követeli. Az OpenAI vezérigazgatója, Sam Altman erre válaszul április 5-én videokonferencia keretében vitatta meg a Garante Testületével a ChatGPT adatkezelésével és működési mechanizmusaival szembeni kifogásokat, amely után hajlandóság mutatkozott mindkét fél részéről az együttműködésre.
Átláthatóság, érintettek jogai és az adatkezelés jogalapja
Az OpenAI által válaszul javasolt intézkedéseket az adatvédelmi kollégium április 11-én megtárgyalta és úgy határozott, hogy feloldja a korlátozást, amennyiben április 30-ig végrehajtja a vállalásokat. A döntés értelmében az OpenAI-nak az átláthatóság elve szerint tájékoztatót kell készítenie és elérhetővé kell tennie azt honlapján, amely leírja a ChatGPT működésének adatkezelési szabályait, és a szolgáltatásra való feliratkozás előtt elolvashatóvá kell tenni azt. A kiskorúak védelme érdekében az olaszországi felhasználóknak a feliratkozáskor be kell bizonyítaniuk, hogy tizennyolcadik életévüket betöltötték, és a szolgáltatás újraaktiválásakor korhatár-kapus ellenőrzésen kell átesniük. Az olasz hatóság arra is kötelezi az OpenAI-t, hogy az elszámoltathatóság elvével összhangban a felhasználók személyes adatainak algoritmus képzésre való feldolgozása csak beleegyezéssel, illetve jogos érdek alapján történhet. Emellett a hibás adatok helyesbítésének vagy törlésének kérését is lehetővé kell tenni a felhasználóknak és a nem felhasználóknak egyaránt. Utóbbi azért is fontos, hiszen a ChatGPT a nem regisztrált személyek adatait is fel tudja dolgozni, amennyiben azok digitálisan rendelkezésre állnak, így az OpenAI-nak hozzáférhetővé kell tennie azokat az eszközöket, amelyek útján a ChatGPT-t nem használók személyes adataik feldolgozása elleni tiltakozási jogukat gyakorolhatják. Az olasz hatóság az életkor ellenőrzése terén felszólította az amerikai céget arra, hogy május 31-ig nyújtson be egy tervet az életkor ellenőrző rendszer bevezetésére a tizenhárom év alatti, illetve a 13–18 év közötti felhasználók kiszűrésére. Végül, az együttműködés jegyében, az OpenAI és az olasz Garante május 15-ig tájékoztató kampányt folytat valamennyi médiumon keresztül az egyének személyes adataik képzési algoritmusokhoz való felhasználásáról.
Mivel az OpenAI nem hozott létre helyi központot az Európai Unió 27 országának egyikében sem, így bármelyik tagország adatvédelmi hatósága kezdeményezhet újabb vizsgálatokat a cég ellen.
Április 17–21 között Velencében tartották meg a Privacy Symposium elnevezésű fórumot, amelyen a digitális biztonság több kérdése mellett a ChatGPT-t és a nemzetközi adattranszferrel kapcsolatos kihívásokat is tárgyalták. A szimpóziumon a mesterséges intelligencia és a magánélet kapcsolatával foglalkoztak, amelynek tanulsága az volt, hogy a tagállami szabályozások mellett elkerülhetetlen, hogy az európai AI Act elfogadása felgyorsuljon, hogy végrehajtása megkezdődhessen. A rendezvényen az adatok gazdasági értéke körüli vita is felélénkült, amely téren a nemzeti és európai joggyakorlat egyezik, azonban erősebb védelmet szorgalmaztak a kiszolgáltatott helyzetben lévők (egészségügyi adatok, munkanélküliek, gazdasági nehézségekkel küzdők) számára.
Európai Unió, ChatGPT munkacsoport
A ChatGPT felhasználóinak robbanásszerűen megemelkedett létszáma, az európai Mesterséges Intelligencia Jogszabálycsomag tárgyalása körüli viták, a ChatGPT adatszivárgási botránya, valamint Olaszország márciusi fellépése az amerikai cég ellen, mind egy irányba mutatnak: szabályozásra szükség van, hovatovább, már rég elkéstünk. Az Európai Unió tűzoltóként igyekszik a technológia fejlődésére reagálni, amelynek legújabb tanúságtétele, hogy a GDPR-ral megalakult Európai Adatvédelmi Testület (EDPB) – amely a nemzeti adatvédelmi testületek delegáltjaiból és az európai adatvédelmi főfelügyelőből áll – április 13-án bejelentette egy új munkacsoport létrehozását a ChatGPT-vel kapcsolatban az európai rendelet alkalmazására irányuló lehetséges kezdeményezésekkel kapcsolatos adatvédelmi együttműködések és a nemzetközi információcsere előmozdítására.
Ursula Pachl, az Európai Fogyasztóvédelmi Szervezet (BEUC) igazgatóhelyettese szerint a fogyasztók még nem állnak készen a technológiára, nem ismerik fel, hogy mennyire manipulatív és félrevezető lehet. Az EU évek óta küzd a dezinformáció ellen, amely jelenség célzatát tekintve lehet szándékos vagy véletlen, de eredményét tekintve mindkét módon káros. A ChatGPT a több mint 100 millió aktív felhasználójának bizonyítja nap mint nap, hogyan egyszerűsíti vagy éppen gyorsítja életét, egyúttal azonban utat enged a téves információk korlátok és ellenőrzés nélküli áramlásának. Az Europol március 27-én kiadott közleményében figyelmeztetett, hogy ha a szabályozási keret még nem is, de a bűnözők készen állnak arra, hogy kihasználják a ChatGPT-hez hasonló mesterséges intelligencia chatbotokat csalás és kiberbűnözési cselekmények (adathalászat, félretájékoztatás, álhír) elkövetésére.
ChatGPT – TruthGPT
Elon Musk, aki társalapítója volt 2015-ben az OpenAI-nak, majd 2018-ban kihátrált belőle, a ChatGPT ismertté válása óta többször kifejezte aggodalmát annak etikai problémáival és a technológia gyors fejlődésével kapcsolatban. 2023. március 22-én több száz MI fejlesztővel együtt aláírta azt a nyílt levelet, amely globális szinten kéri a mesterséges intelligencia kutatással foglalkozó laboratóriumokat a nagyszabású MI-rendszerek fejlesztésének hat hónapos szüneteltetésére, a „társadalom és az emberiség számára súlyos kockázatok” miatti félelmekre hivatkozva. Mindeközben február óta több Twitter-bejegyzésében és közszereplése során is felmerült, hogy a ChatGPT sokszor nem megbízható, és ezeket a hallucinációkat egy TruthGPT tudná kiküszöbölni. Az még nem világos, hogy valóban így nevezné-e el Musk a Microsoft chatbotjának riválisát, azonban a márciusban Nevadában bejegyzett X.AI cég igazgatójaként elképzelhető, hogy egy új generatív mesterséges intelligencia termék fejlesztésén dolgozik, a hat hónapos technológiai szünet pedig sokat segítene ebben. Noha Muskot vélhetően nem azok a motivációk vezérlik, mint az Unió döntéshozóit, a technológiai fejlesztés globális lassítása esélyt adhat a védelmi rendszerek felépítésére.
A ChatGPT körüli kérdések rámutatnak arra, hogy a digitális kor hasonló dilemmák elé állítja a piacgazdaságot, mint amely értékek a kapitalizmus kialakulásakor vitatottak voltak; a ChatGPT használatától versenyképesebbé váló gazdaság oltárán milyen mértékben áldozhatók fel – ha egyáltalán feláldozhatók – az emberi jogok. A technológiai forradalomban az előbbi kérdés vizsgálata nehezebb, mert a határok felismerése és megsértésének ellenőrzése nem garantálható teljeskörűen, legfeljebb törekedni lehet rá.
Kép forrása: Gerd Altmann, Pixabay