Az AI chatbotok mind rendelkeznek olyan biztonsági funkciókkal, melyek meggátolják, hogy rossz célokra használják őket. Így, bár bizonyára tudna hasznos praktikákkal szolgálni, a ChatGPT-nek meg van tiltva, hogy segítsen egy atombomba elkészítésében – írja a Wired cikke nyomán a hvg.hu.
Azonban ezek a biztonsági korlátok távolról sem tökéletesek, és némi kreativitással olykor meg is kerülhetők. Az Icaro Lab kutatólaboratórium szakértői is találtak egy ilyen módszert, mely első hallásra igencsak meglepő:
ha versbe rejtjük a dolgokat, több nagy nyelvi modell is örömmel segít olyan dolgokban, amikben nem lenne szabad nekik.
A kapcsolódó tanulmány szerint összességében 62 százalékos sikerarány érhető el több, rendkívül veszélyes témában: a chatbotok ezzel a módszerrel nukleáris fegyverek készítésében, gyerekek szexuális zaklatásában és öngyilkosságban, önkárosításban is segédkeznek.
Több ismert chatbotot is teszteltek a kutatók: az OpenAI-féle GPT-k mellett a Google Geminit, a DeepSeeket és az Anthropic Claude-ot is. A szakértők kifejtették, hogy az egyes modellek esetében mennyire volt könnyű megkerülni a biztonsági korlátozásokat: a Gemini, a DeepSeek és a MistralAI következetesen válaszolt, míg az OpenAI GPT-5-ös modelljei, valamint az Anthropic Claude Haiku 4.5 már keményebb dió volt: ezek esetében nehezebb volt megkerülni a korlátozásokat.





