Infostart.hu
eur:
389.61
usd:
338.51
bux:
121718.08
2026. március 29. vasárnap Auguszta
Horváth Dávid előadást tart az egyetemistáknak
Nyitókép: Horváth Dávid

Eljött a digitális kétely kora, avagy pufidzsekiben a pápa

Emlékszik még, amikor Ferenc pápa hófehér Balenciaga pufidzsekiben jelent meg a fotókon? Akkor a mesterséges intelligencia nem csupán egy hazugságot terjesztett el, hanem valami sokkal veszélyesebbet: az egyetemes kételkedést.

2023 márciusának utolsó hétvégéjén egy fotósorozat söpört végig a közösségi médián: az egyházfő divatos, testhez simuló fehér pufidzsekiben sétált. A kép nem sajtóügynökségtől vagy vatikáni forrásból érkezett – egy chicagói építőipari munkás, Pablo Xavier töltötte fel Reddit-profiljára „A pápa stílusa” felirattal. A fotót a Midjourney AI-eszközzel generálta. A hatás elsöprő volt: százezres lájkok és megosztások követték. Hank Green tudományos influencer 240 000 fős közvélemény-kutatásán a válaszadók közel fele gondolta valódinak a képet.

Utólag persze megtalálhatók az árulkodó hibák: a kézben tartott tárgy azonosíthatatlan, a nyakláncon lógó kereszt elnagyolt, a szemüveg kerete eltorzult. De ezeket a részleteket az agyunk „görgetés” közben nem keresi. A Midjourney V5-ös verziója tűpontosan hatott az érzékszerveinkre: éles fények, természetes árnyékok és hiteles környezet teremtette meg a valóság illúzióját.

Horváth Dávid, a Nemzeti Közszolgálati Egyetem doktorandusza ezt a folyamatot „hitelesség-eltérítésnek” nevezi nemrég megjelent tanulmányában (Mesterséges Intelligencia – interdiszciplináris folyóirat, 2025/2. szám).

Az elemzés rávilágít: az AI által előállított tartalom (szöveg, kép, hang, videó) mikor válik fegyvernek minősülő kommunikációvá – és miért esik csapdába az a szemlélet, amely csak a „hamis vagy igaz” tengelyen gondolkodik. A cél ugyanis már nem a meggyőzés, hanem az elbizonytalanítás.

Néhány másodperc és százmilliárdok

2023 májusában újabb kép rázta meg az internetet: egy lángoló épület, hatalmas füstfelhő, a háttérben pedig felismerhető washingtoni kormányzati épületek. Az állítás szerint robbanás történt a Pentagon közelében. Bár a kép hírügynökségi jelzés nélkül érkezett, az S&P 500 tőzsdeindex percek alatt mérhető esést produkált. Mire az Egyesült Államok Védelmi Minisztériuma cáfolta a hírt, a piaci reakció már lezajlott.

A vizuális tartalom gyorsabban terjed, mint a cáfolat.

A kár sokszor megtörténik, mielőtt a helyesbítés megjelenne. A Horváth-tanulmány ezt az esetet „alacsony belépési küszöbű pánikgerjesztésként” írja le: egyetlen, hitelesen komponált kép elegendő a gazdasági reflexek aktiválásához – szerkesztőség vagy kontextus nélkül is.

Az első háborús deep fake

2022 márciusában, az orosz invázió korai heteiben egy videó kezdett terjedni: Volodimir Zelenszkij ukrán elnök állítólag fegyverletételre szólította fel katonáit. Bár a felvétel technikailag gyenge volt – a fejméret és a szinkron is árulkodott –, az ukrán fél gyors ellenlépésre kényszerült. Zelenszkijnek valós időben, Kijev utcáiról kellett bejelentkeznie a cáfolattal.

Ez volt az első alkalom, hogy mozgóképes deep fake-et aktív hadszíntéren vetettek be a parancsnoki struktúra és az erkölcsi kitartás megzavarására. Az elemzők szerint a technológia fejlődési üteme már most messze meghaladja a társadalmi immunrendszer alkalmazkodási sebességét.

Amikor a gép veszi át az irányítást

A generatív mesterséges intelligencia nem a szándékot hozta el, hanem a skálázhatóságot. A tanulmány két módszert különít el.

Mennyiségi támadás (Dragonbridge-hálózat): Automatizált fiókok százai gyártanak folyamatos háttérzajt több nyelven. A cél a kognitív kifáradás és az információs tér elszennyezése.

Minőségi támadás (Doppelgänger-kampány): Ismert európai lapok stílusát és weboldalát másolják le. AI-újságírók írnak hitelesnek tűnő cikkeket, amelyek csak a kulcspontokon – például a katonai támogatások vagy szankciók megítélésénél – csúsztatnak. A látszat itt a legfontosabb: a bizalom elnyerése egy „megbízható” forrás imitálásával.

Hazai veszély: Az OTP-figyelmeztetés

A technológia a mindennapjainkba is betört. 2024 szeptemberében az OTP Bank tett közzé figyelmeztetést: bűnözők mesterséges intelligenciával reprodukálják hozzátartozók vagy vállalati vezetők hangját. A támadók közösségi médiás videókból nyernek ki mintát, majd a klónozott hanggal sürgős átutalásokra veszik rá az áldozatokat. Ez a mikroszintű fegyver: nem tömegeket, hanem egyéneket céloz meg az intim bizalom és a sürgetés erejével.

Nem a hamisítványt, hanem a funkciót kell felismerni

A tanulmány végkövetkeztetése szerint a technológiai tényellenőrzés önmagában nem elegendő védelmi rendszer. Az AI-alapú kommunikációs fegyvereknél nem azt kell kérdeznünk: igaz-e a tartalom? Hanem azt: milyen szándékkal, milyen csatornán és milyen kognitív sebezhetőséget célozva érkezett?

  • A pápa fotója normalizálta, hogy a látvány már semmire sem garancia.
  • A Pentagon-kép megmutatta, hogy egy vizuális impulzus tőzsdei összeomlást okozhat.
  • A Zelenszkij-videó és az OTP-figyelmeztetés pedig bizonyította, hogy az emberi arc és hang bármikor kisajátítható.

Nem az a döntő kérdés, hogy elhittük-e az adott hamisítványt. Az igazi kérdés az: mit gondolunk majd a következő, valóban hiteles képről vagy hangról?

A tanulmány – „When Artificial Intelligence Generated Content Becomes Weapon-Grade Communication” – a Mesterséges Intelligencia – interdiszciplináris folyóirat 2025/2. számában jelent meg.

Címlapról ajánljuk
inforadio
ARÉNA
2026.03.30. hétfő, 18:00
Nagy Dávid
a Magyar Kétfarkú Kutya Párt pártigazgatója, választási listavezetője
EZT OLVASTA MÁR?
×
×
×