Az Európai Uniónak még legalább egy évre lesz szüksége ahhoz, hogy kitalálja, miként alkalmazhatja egyébként nagy erejű, a digitális világra vonatkozó törvényeit, hogy a ChatGPT veszélyeit csökkenteni tudja – írja a Politico.
A mesterséges intelligenciára épülő chatbot felhasználóinak száma jelentősen megnőtt Európában, ebben a hónapban jelentette be az OpenAI, a rendszer üzemeltetője, hogy egy fontos küszöböt tört át, amely felett már szigorúbb a jogi felügyelet. Az, hogy
havonta több mint 120 millióan használják a ChatGPT keresési funkcióját,
nem lepte meg az Európai Bizottságot – értékelt két tisztviselő a Politico-nak. A cég ezzel kapcsolatban hozzátette, hogy ez nem az összes felhasználó számát mutatja, hanem ebbe csak a keresési funkciót használók értendőek bele. Ugyanakkor a szabályozó testületek még keresik azt, hogyan kellene majd kezelni a ChatGPT-t az EU „erőteljes” Digital Services Act-jének keretében, amely 2024 elején lépett hatályba, annak érdekében, hogy a veszélyeket minimalizálják. Erről döntést csak várhatóan 2026 közepén hoznak egy vezető bizottsági tisztviselő szerint.
Ez jelentősen teszteli az EU képességeit azon a területen, hogy miként lehet kezelni a nagy nyelvi modellek által jelentett veszélyeket, amelyek lassan ugyanolyan elterjedté válnak az emberek életében, mint a hagyományos keresőmotorok.
A vontatott válasz a Politico szerint annak is köszönhető, hogy a digitális világot szabályozó törvényt azelőtt dolgozták ki, hogy a ChatGPT bekerült volna a fősodorba, és definíciói nem egyértelműen alkalmazhatóak az MI-chatbotokra.
Az OpenAI nemrégiben elismerte, hogy
hetente 1,2 millió személy folytat olyan beszélgetéseket a ChatGPT-vel, amelyek arra utalnak, hogy saját életük kioltására készülnek.
Ritka esetekben a modell nem úgy viselkedik, mint ahogyan tervezték ezekben az érzékeny helyzetekben, olvasható a cikkben.
„Az ipar megszokta, hogy önkéntes alapú MI-biztonsági keretrendszerek vonatkoznak rájuk, [...] a DSA jogilag kötelező érvényű kellő gondossági (due diligence) szabályai hidegzuhanyként érheti őket” – kommentálta a témát Mathias Vermeulen, a brüsszeli AWO Agency jogi iroda vezetője.
A ChatGPT-re már vonatkozik az EU AI Act-je. Ennek értelmében szükséges felmérnie a veszélyeket, és szükséges azokat kezelnie is, különben akár 15 millió eurós bírságokkal nézhet szembe. Ugyanakkor a felhasználószám-növekedése ahhoz vezet, hogy a DSA is vonatkozna rá, amelynek értelmében a bírságok akár globális éves árbevételének 6 százalékát is elérhetik – írja a Politico.
A ChatGPT-t nem látta előre a DSA,
de van mód arra, hogy a jogszabály szövegezése alapján értelmezzék azt – mondta Martin Husovec, a London School of Economics jogi professzora.
A fő kérdés az, hogy keresőmotornak, vagy platformnak számít.
A Politico azt írja, a Bizottság döntésén alapul, hogy milyen követelményeket kell pontosan teljesítenie az OpenAI-nak. A cégnek körbe kell járnia, hogy mennyire súlyos veszélyeket jelent a chatbot, olyan területeken is, mint a választások, vagy a közegészségügy. Ezeket a veszélyeket kezelniük kell, és a bizottságot ezekről egy „hosszú megfelelőségi riportban” informálniuk szükséges.
A riportban szükséges szót ejteniük a „javaslattevő algoritmusaikról és bármilyen más releváns algoritmusról” is. Ez nehéz lehet, ha a bizottság a ChatGPT hátterét adó teljes nyelvi modellt célozza, és nem csak a felhasználóknak megmutatott keresési eredményeket. A szűkebb definíció abban az értelemben is „megmentené” az OpenAI-t, hogy nem volna szükséges olyan rendszert biztosítaniuk, amely lehetőséget ad a tartalmak eltávolítására való kérelem beadására, írja a cikk.
Amennyiben a besorolás megtörténik 2026 közepén, akkor 2026 utolsó negyedévében lépnének életbe ezek a követelmények. Az elmúlt időszakban voltak platformok, amelyek a besorolás ellen tiltakoztak, de nem sikerült megváltoztatni a döntést, mondja João Pedro Quintais, az amszterdami egyetem információs jogi docense.
Még nyitva vannak a kulcskérdések abban a tekintetben, hogy az AI Act és a DSA, a két fő törvény az AI és a platformok vonatkozásában miként fedi át egymást. A törvények megalkotásakor olyan esetekre voltak felkészülve, amikor az AI integrálva van a digitális szolgáltatásokba, például a Google AI-összefoglalói esetében, magyarázza Quintais. A „vertikálisan integrált”, tehát a teljes folyamatot magukban foglaló szolgáltatókra, mint az OpenAI-ra, nem készültek – írja a Politico.
A két jogszabály keretében két különböző „veszélyességi keretrendszer” van. A kettő nem tökéletesen illeszkedik egymáshoz, az AI Act szerint a modelleket be kell sorolni az „elfogadhatatlan, magas, limitált, minimális vagy semmilyen” veszélykategóriák egyikébe.
A platformoknak és a keresőmotoroknak meg kell állapítaniuk és kezelniük kell négy típusú „szisztematikus veszélyt”, így a közélet integritására, a választásokra, a közegészségügyre, és az alapvető jogokra leselkedő veszélyeket.
A cég ugyanakkor haszonélvezője lehet a „safe harbor” törvényeknek, amelyek értelmében a platformok, és a keresőmotorok nem felelősek a rajtuk közzétett tartalmakért, teszi hozzá Quintais.




