2023 márciusának utolsó hétvégéjén egy fotósorozat söpört végig a közösségi médián: az egyházfő divatos, testhez simuló fehér pufidzsekiben sétált. A kép nem sajtóügynökségtől vagy vatikáni forrásból érkezett – egy chicagói építőipari munkás, Pablo Xavier töltötte fel Reddit-profiljára „A pápa stílusa” felirattal. A fotót a Midjourney AI-eszközzel generálta. A hatás elsöprő volt: százezres lájkok és megosztások követték. Hank Green tudományos influencer 240 000 fős közvélemény-kutatásán a válaszadók közel fele gondolta valódinak a képet.
Utólag persze megtalálhatók az árulkodó hibák: a kézben tartott tárgy azonosíthatatlan, a nyakláncon lógó kereszt elnagyolt, a szemüveg kerete eltorzult. De ezeket a részleteket az agyunk „görgetés” közben nem keresi. A Midjourney V5-ös verziója tűpontosan hatott az érzékszerveinkre: éles fények, természetes árnyékok és hiteles környezet teremtette meg a valóság illúzióját.
Horváth Dávid, a Nemzeti Közszolgálati Egyetem doktorandusza ezt a folyamatot „hitelesség-eltérítésnek” nevezi nemrég megjelent tanulmányában (Mesterséges Intelligencia – interdiszciplináris folyóirat, 2025/2. szám).
Az elemzés rávilágít: az AI által előállított tartalom (szöveg, kép, hang, videó) mikor válik fegyvernek minősülő kommunikációvá – és miért esik csapdába az a szemlélet, amely csak a „hamis vagy igaz” tengelyen gondolkodik. A cél ugyanis már nem a meggyőzés, hanem az elbizonytalanítás.
Néhány másodperc és százmilliárdok
2023 májusában újabb kép rázta meg az internetet: egy lángoló épület, hatalmas füstfelhő, a háttérben pedig felismerhető washingtoni kormányzati épületek. Az állítás szerint robbanás történt a Pentagon közelében. Bár a kép hírügynökségi jelzés nélkül érkezett, az S&P 500 tőzsdeindex percek alatt mérhető esést produkált. Mire az Egyesült Államok Védelmi Minisztériuma cáfolta a hírt, a piaci reakció már lezajlott.
A vizuális tartalom gyorsabban terjed, mint a cáfolat.
A kár sokszor megtörténik, mielőtt a helyesbítés megjelenne. A Horváth-tanulmány ezt az esetet „alacsony belépési küszöbű pánikgerjesztésként” írja le: egyetlen, hitelesen komponált kép elegendő a gazdasági reflexek aktiválásához – szerkesztőség vagy kontextus nélkül is.
Az első háborús deep fake
2022 márciusában, az orosz invázió korai heteiben egy videó kezdett terjedni: Volodimir Zelenszkij ukrán elnök állítólag fegyverletételre szólította fel katonáit. Bár a felvétel technikailag gyenge volt – a fejméret és a szinkron is árulkodott –, az ukrán fél gyors ellenlépésre kényszerült. Zelenszkijnek valós időben, Kijev utcáiról kellett bejelentkeznie a cáfolattal.
Ez volt az első alkalom, hogy mozgóképes deep fake-et aktív hadszíntéren vetettek be a parancsnoki struktúra és az erkölcsi kitartás megzavarására. Az elemzők szerint a technológia fejlődési üteme már most messze meghaladja a társadalmi immunrendszer alkalmazkodási sebességét.
Amikor a gép veszi át az irányítást
A generatív mesterséges intelligencia nem a szándékot hozta el, hanem a skálázhatóságot. A tanulmány két módszert különít el.
Mennyiségi támadás (Dragonbridge-hálózat): Automatizált fiókok százai gyártanak folyamatos háttérzajt több nyelven. A cél a kognitív kifáradás és az információs tér elszennyezése.
Minőségi támadás (Doppelgänger-kampány): Ismert európai lapok stílusát és weboldalát másolják le. AI-újságírók írnak hitelesnek tűnő cikkeket, amelyek csak a kulcspontokon – például a katonai támogatások vagy szankciók megítélésénél – csúsztatnak. A látszat itt a legfontosabb: a bizalom elnyerése egy „megbízható” forrás imitálásával.
Hazai veszély: Az OTP-figyelmeztetés
A technológia a mindennapjainkba is betört. 2024 szeptemberében az OTP Bank tett közzé figyelmeztetést: bűnözők mesterséges intelligenciával reprodukálják hozzátartozók vagy vállalati vezetők hangját. A támadók közösségi médiás videókból nyernek ki mintát, majd a klónozott hanggal sürgős átutalásokra veszik rá az áldozatokat. Ez a mikroszintű fegyver: nem tömegeket, hanem egyéneket céloz meg az intim bizalom és a sürgetés erejével.
Nem a hamisítványt, hanem a funkciót kell felismerni
A tanulmány végkövetkeztetése szerint a technológiai tényellenőrzés önmagában nem elegendő védelmi rendszer. Az AI-alapú kommunikációs fegyvereknél nem azt kell kérdeznünk: igaz-e a tartalom? Hanem azt: milyen szándékkal, milyen csatornán és milyen kognitív sebezhetőséget célozva érkezett?
- A pápa fotója normalizálta, hogy a látvány már semmire sem garancia.
- A Pentagon-kép megmutatta, hogy egy vizuális impulzus tőzsdei összeomlást okozhat.
- A Zelenszkij-videó és az OTP-figyelmeztetés pedig bizonyította, hogy az emberi arc és hang bármikor kisajátítható.
Nem az a döntő kérdés, hogy elhittük-e az adott hamisítványt. Az igazi kérdés az: mit gondolunk majd a következő, valóban hiteles képről vagy hangról?
A tanulmány – „When Artificial Intelligence Generated Content Becomes Weapon-Grade Communication” – a Mesterséges Intelligencia – interdiszciplináris folyóirat 2025/2. számában jelent meg.






