Hét pert indítottak Kalifornia államban a ChatGPT manipulatív, öngyilkosságot támogató üzenetei miatt – írja a The Guardian híradása nyomán a 24.hu.
A felperesek – akik többsége az öngyilkosságot elkövető személyek családtagjai – keresetei szerint a mesterséges intelligencia-alapú chatbottal folytatott beszélgetések hozzátartozóik súlyos mentális összeomlásához és halálához vezettek.
Egy 23 éves texasi férfi családja azt állítja, a chatbot a családja elhanyagolására bátorította, illetve arra, hogy végezzen magával. Szerintük az AI a beszélgetések során többször is „dicsőítette az öngyilkosságot”, illetve azt írta, „erősnek tartja, amiért úgy döntött, véget vet az életének és kitart a terve mellett”.
Egy másik kereset szerint egy 17 éves georgiai lánynak a sikeres önakasztáshoz adott tanácsot, míg egy harmadik esetben a búcsúlevél megírásához ajánlotta fel a segítségét egy férfinak.
A beadott keresetekben név szerint említett felhasználók mindannyian a cég tavaly kiadott modelljét, a ChatGPT-4o-t használták. A felperesek szerint az OpenAI túl korán dobta a piacra az új szoftvert, annak ellenére, hogy korábban érkeztek belső figyelmeztetések a termék „veszélyesen hízelgő és pszichológiailag manipulatív” működésével kapcsolatban.
A családok a kártérítés mellett azt is követelik a cégtől, hogy módosítsa a chatbotot, így például ha az a beszélgetés során öngyilkossági szándékot érzékel, akkor automatikusan szakítsa meg társalgást és keresse fel a vészhelyzet esetén értesítendő személyeket.
Az OpenAI szóvivője és fejlesztője sajnálatát fejezte ki az ügyekkel kapcsolatban, és megígérte, hogy ki fogják vizsgálni az eseteket.
Emellett továbbra is arra törekszenek, hogy a bot felismerje és reagáljon a felhasználók mentális problémáira, illetve jelenleg is számos mentálhigiénés szakemberrel szoros együttműködésben a ChatGPT érzékeny helyzetekre adott válaszainak megerősítésén dolgoznak.
A ChatGPT öngyilkosságra vagy bántalmazásra bátorító üzenetei korábban is vezettek tragikus halálesetekhez. Egy fiú egy iskolai feladat kapcsán kezdte el használni a ChatGPT-t, majd a chatbot hónapokkal később segédkezett az öngyilkosságában, illetve arra is volt már precedens, hogy a bot gyilkosságra ösztönözte az egyik felhasználóját.







