Nyitókép: alexsl/Getty Images

Döbbenetes dolgokat vallanak be az emberek a chatbotoknak – úton a segítség

Infostart
2026. április 14. 05:45
Sokan szívesebben osztják meg a személytelen chatbotokkal szélsőséges, olykor erőszakos gondolataikat, szándékaikat, mint egy másik emberrel, ez pedig több országban okozott már problémát, illetve eredményezett jogi következményeket a működtetőkkel szemben. Egy új-zélandi startup azonban a fejlesztők és a felhasználók segítségére is siet preventív kiegészítésével.

Egy új-zélandi startup, a ThroughLine olyan eszközt fejleszt, amely a mesterségesintelligencia-platformokon – köztük a ChatGPT-n – szélsőséges hajlamokat mutató felhasználókat deradikalizációs támogató szolgálatokhoz irányítaná – írja a Reuters cikke nyomán a Portfolio.

A vállalkozás már most is több nagy AI-vállalattal dolgozik együtt, és a tervek szerint a jövőben az erőszakos szélsőségesség megelőzésére is kiterjesztenék a tevékenységüket. A ThroughLine alapítója, Elliot Taylor egykor ifjúságsegítő volt Új-Zélandon, cégét pedig az elmúlt években az OpenAI, az Anthropic és a Google is megbízta egy fontos feladattal:

arra kérték, hogy az önkárosítás, a családon belüli erőszak vagy az étkezési zavarok szempontjából kockázatnak kitett felhasználókat irányítsa krízisintervenciós szolgálatokhoz.

A startup 180 ország mintegy 1600 segélyvonalát fogja össze egy folyamatosan ellenőrzött hálózatban. Amikor a mesterségesintelligencia-rendszer egy potenciális válsághelyzet jeleit észleli, a felhasználót a ThroughLine-on keresztül a legközelebbi elérhető segítő szolgálathoz kapcsolja.

Az eszköz eddig csak bizonyos kategóriákra korlátozódott, viszont a cégvezér szerint a hatásköre ma már a szélsőséges eszmékkel való kacérkodás is kiterjed. A tervezett radikalizációellenes eszköz várhatóan hibrid modellként működne: egyrészt egy külön erre a célra kiképzett chatbot válaszolna a szélsőséges jeleket mutató felhasználóknak, másrészt a rendszert kombinálnák a mentálhigiénés szolgálatokhoz történő átirányítással.

Azért is különösen időszerű a közbelépés, mert az AI-cégek ellen egyre több per indul erőszakos cselekmények állítólagos segítése miatt.

A kanadai kormány például idén februárban azzal fenyegette meg az OpenAI-t, hogy hatóságilag beavatkozik. Erre azután került sor, hogy kiderült: a platform úgy tiltotta ki egy iskolai lövöldözés elkövetőjét, hogy arról nem értesítette a rendőrséget.

Elliot Taylor hangsúlyozza: a válsághelyzetben lévő emberek hajlamosabbak megosztani a problémáikat egy mesterséges intelligenciával, mint személyesen elmondani azokat egy másik embernek. Ha a platformok a hatósági nyomásra egyszerűen leállítják ezeket a beszélgetéseket, a felhasználók támasz nélkül maradhatnak.