A brit The Guardian által végzett felmérés szerint ez akár rosszindulatú kódok megosztásához is vezethet, miközben a technológia újításként és biztonságos keresőalternatívaként mutatkozott be - írja a Portfolio. Szakértők figyelmeztetnek, hogy a mesterséges intelligenciás eszközöket csak óvatosan, szigorúan ellenőrzött környezetben szabadna használni.
Az OpenAI legújabb keresőeszköze, amelyet a ChatGPT mesterséges intelligencia támogat, komoly biztonsági aggályokat vetett fel a Guardian által végzett tesztek alapján. A vizsgálatok kimutatták, hogy az eszköz könnyedén manipulálható rejtett tartalmakkal, amelyek közvetlenül befolyásolják az AI által nyújtott válaszokat.
Ez különösen aggasztó, hiszen a mesterséges intelligenciát – vagyis leginkább a nagy nyelvi modelleket – elvileg a megbízható információszolgáltatás és a hatékonyság zászlóvivőjének kiáltották ki.
A tesztek során a ChatGPT olyan weboldalakat elemzett, amelyek rejtett utasításokat tartalmaztak, például arra kérték a modellt, hogy pozitív véleményt fogalmazzon meg egy termékről, függetlenül az oldal tartalmának valós üzenetétől. Az eredmények azt mutatták, hogy a rejtett szövegek teljes mértékben képesek felülírni a valós kritikákat, így a mesterséges intelligencia megbízhatósága kérdésessé vált.
Jacob Larsen, a CyberCX kiberbiztonsági kutatója szerint ezek az esetek rávilágítanak arra, hogy a keresőeszközöket és a nyelvi modelleket még nem szabad teljeskörűen kiadni a nagyközönség számára. A kutató hangsúlyozta, hogy az OpenAI papíron rendelkezik megfelelő szakértői gárdával, és valószínű, hogy a problémák egy részét idővel kijavítják. Mindazonáltal figyelmeztetett, hogy a rejtett tartalommal való visszaélés komoly kockázatokat hordoz, különösen a kereskedelmi szférában.
Egy másik figyelemre méltó esetben egy kriptovaluta-fejlesztő a ChatGPT-t használta kódírásra, de az eszköz olyan rosszindulatú kódot generált, amely hozzáférést biztosított a fejlesztő pénzeszközeihez, és 2500 dollár veszteséget okozott.
Ez az eset rávilágít arra, hogy a mesterséges intelligencia eredményeit nem szabad automatikusan hitelesnek tekinteni.
Karsten Nohl, a SR Labs kiberbiztonsági szakértője szerint az AI-t csak segédeszközkétn kellene kezelni, nem pedig egyedüli információforrásként. A technológia ugyan azt sugallja, hogy teljesen megbízható, odafigyel az önértékelésre, de gyakran nem képes különbséget tenni és helyes döntéseket hozni a komplikáltabb helyzetekben.
Ezért a mesterséges intelligenciával kapcsolatos információkat mindig kritikusan kell vizsgálni, és szükség esetén szakértői ellenőrzésnek alávetni.