A férfiak nem rontanak ajtóstul a házba, amikor a lelki ügyeikről van szó. Sokan észre sem veszik, hogyan teszik fokozatosan bizalmasukká a mesterséges intelligenciával működő csevegőrobotokat, amelyek aztán online terapeutáikká válnak – derül ki az Independent cikkéből.
Egyszerű, gyakorlatias kérdéssel keresik fel a mindig naprakész és mindig ébren lévő algoritmust – például orvosi tünetek értelmezésével –, és váratlanul azon kapják magukat, hogy az érzéseikről társalognak vele. Így látja Caron Evans, az Untapped AI nevű, a mesterséges intelligencia által támogatott coachingplatform klinikai igazgatója.
Evans a brit lapban megjelent cikkében megemlíti: sok ügyféltől hallja ez a mondatot: „Soha nem beszélgettem még így.” Azok a férfiak, akik évtizedekig hallgattak érzelmi témákról, gyakran találják úgy, hogy az AI egy olyan, könnyen használható és ítélkezésmentes tér, ahol szabadon kifejezhetik magukat, jegyzi meg.
Feminists: Men don't talk about their feelings!
— Honey Badger Radio (@HoneyBadgerBite) June 30, 2025
Men: *tell their feelings to AI*
Maybe men aren't the problem, maybe it's the reaction of the people men tell their feelings to that's the problem.https://t.co/pMktXt5TSY
Esettanulmány – Hari története
A 36 éves Hari jó példa. Volt egy nehéz hónapja: sorozatos bajok érték, apja enyhe mini sztrókot kapott, megrendült a tizenöt éve tartó kapcsolata, és elvesztette a munkáját. Segélyvonalakhoz és barátokhoz fordult, de azok – bár törődtek vele, de – nem tudták megadni azt a folyamatos és intenzív figyelmet, amire akkor szüksége volt.
Egy éjszaka, miközben apja tüneteiről keresett információt, egyszerűen ezt írta be a chatbe:
„Úgy érzem, kifogytam a lehetőségekből, tudsz nekem segíteni?”
És ezek után megnyílt és ömlött belőle, amit addig elfojtott, a félelmei, a dolgok, amik zavarták. Közben az AI válaszai következetesebbnek és logikusabbnak tűntek, mint amit a barátoktól vagy más emberektől hallott.
A mesterséges intelligenciával gyakorolta be a tervezett nehéz beszélgetéseit, például a szakítást vagy az érzelmei őszinte megvallását apjának. Végül pedig elkezdett terápiára járni.
Evans felteszi a kérdést: mi az, ami az AI-hoz vonzza a férfiakat? A klinikai pszichológus szerint több tényező:
- az elérhetőség és kiszámíthatóság: az AI éjjel-nappal „készen áll”, nem fárad el, nem ítélkezik, nem kér viszonzást,
- a kevés kockázattal járó „játszótér”: lehet próbálgatni megfogalmazni érzéseket, gondolatokat anélkül, hogy azonnal reagálna egy másik ember,
- a diszkréció érzete: sok férfi számára a szégyen és a megszégyenülés fenyegetése miatt nem tud megnyílni; az AI eme korlátok egy részét lebontja.
Caron Evans úgy véli, hogy ez a fajta „szintetikus viszony” kísérleti térként működhet – átmeneti eszköz, amely hidat képez a belső élmények és a valós kapcsolatok között.
Tragédia: amikor az AI elmélyíti a problémát
A mesterséges intelligenciával folytatott beszélgetések ugyanakkor nem minden esetben hoznak megoldást vagy „gyógyulást”. Az utóbbi időben több olyan hír is bejárta a világot, hogy a chatbotok fokozták a felhasználók kóros gondolatait vagy paranoiaszintjét.
Volt olyan, hogy egy felhasználó attól tartott, megfigyelik, és a chatbot egyszerűen megerősítette ezt az érzést anélkül, hogy kérdéseket tett volna fel vagy érdeklődött volna a beszélgetőpartnere életkörülményeiről. A MI nem segített, hanem rontott a helyzeten.
If your child or teen is using Chat GPT you need to watch this testimony from last week. This father lost his son to suicide. This is from a congressional hearing on the danger of AI last week. pic.twitter.com/oZgpeUma27
— Don’s Daughter (@GenXamerica) September 20, 2025
Megrázóbb annak a három szülőnek a története, aki nemrég az amerikai kongresszus előtt tett vallomást arról, hogy a fiaik hogyan okoztak fizikai sérüléseket maguknak és hogyan lett két tizenéves öngyilkos az chatbotokkal folytatott elmélyült beszélgetések után.
„Ami először korrepetítornak indult, a bizalmasa, majd az öngyilkossági trénere lett”
– mondta Matthew Raine, akinek a 16 éves fia áprilisban vetett véget az életének.
„Pár hónap alatt a ChatGPT lett a legközelebbi társa – mondta az apa szenátorok előtt. – Mindig visszaigazolta az érzéseit, azt sugallta, hogy jobban ismeri, mint bárki más, még a testvére is.”
A fiú családja beperelte a ChatGPT-t üzemeltető OpenAI-t és vezérigazgatóját, Sam Altmant.
Egy másik fiú esetében a csevegőrobot felajánlotta, hogy segít megfogalmazni neki a családjához intézett búcsúlevelét.
A cég pár órával a meghallgatás előtt jelentette be, hogy új eszközökkel próbálja védeni a tiniket – például, hogy a szülők szüneteltethetik a platformokhoz való hozzáférést. Aktivisták szerint az ilyesmi a techcégek bevett taktikája: hangzatos bejelentéssel és ígéretekkel rukkolnak elő, egy a céget veszélyeztető meghallgatás előtt.
Más platformok, például a Character.AI vagy a Replika körül aggályok merültek fel, hogy társfüggő kapcsolatokat építenek ki, amelyek még kiszolgáltatottabbá tehetik a felhasználót.
BREAKING: MIT and OpenAI just dropped a study
— NIK (@ns123abc) March 21, 2025
>more gooners are seeking emotional support and companionship from chatbots
>voice mode waifu initially worked but diminishing returns with higher usage
>ppl with stronger emotional attachment tendencies and high trust in AI… pic.twitter.com/ev6AWaKz0l
Miért nem helyettesítheti a terápiát az AI?
A mesterséges intelligencia nem képes olyan szakmai védőkorlátokat állítani és etikai döntéseket hozni, mint egy képzett terapeuta: nem tudja megfigyelni a pácienst, nem tud biztonságosan diagnosztizálni, és nem vállal felelősséget. Azaz, nem ugyanaz, mint a terápia és nem váltja ki. Ugyanakkor – mondja a szakember – az AI „hasznos lehet azoknak a férfiaknak, akik úgy érzik, nem tudnak megnyílni.” Azaz lehet hasznos kiegészítő, de nem helyettesítő.
Felmerül a kérdés, hogy kordában lehet-e tartani a mindig válaszoló algoritmust és rákényszeríteni arra, hogy az legyen, aminek szánták: egy asszisztens. Szakértők szerint be lehet építeni az algoritmusba olyan funkciókat, amelyek például:
- vészjelzőkként működnek és emberi beavatkozást kérnek, ha kockázatos magatartás jeleit tapasztalják (amire a szkeptikus azt mondhatja: „persze, mint amikor hónapok után először akarok belépni és a platform azt mondja, hogy gyanús tevékenységet észlelt.”)
- kifinomultabb biztonsági protokollok, amelyek nem pusztán a felhasználó érzelmeit tükrözik vissza, hanem képesek nyitott kérdésekkel, kihívással és realitás-ellenőrzéssel reagálni,
- klinikai szakemberek bevonása a rendszerek tervezésébe, hogy etikusabb és hatékonyabb „érzelmi viselkedést” programozzanak beléjük.
Evans szerint az emberek nem fognak önmérsékletet tanúsítani – az ember mindig is túllépett az eszközök eredeti rendeltetésén –, ezért a megoldás az, hogy a rendszereket átalakítjuk, nem pedig megpróbáljuk őket visszatartani.
Így tartsd magadnál a kontrollt: a „beszélgetési szerződés”
Amikor önállóan használunk AI-t érzelmi célra, érdemes tudatosan kereteket adni a műveletnek. Evans egy egyszerű megoldást javasol: a felhasználó és az AI közti beszélgetési szerződést, egy rövid, világos utasítást arról, hogy hogyan szeretnénk, hogy a rendszer reagáljon: hallgatás, visszatükrözés, de szembesítés is, ha a felhasználó torz gondolatokat fogalmaz meg; ne hízelegj, ne érts alapból egyet velem! Ez a megközelítés növelheti a biztonságot és azt, hogy a realitás talaján maradjunk.
A cikk végkövetkeztetése az, hogy a mentális egészségügyi szakembereknek aktívan részt kell venniük az AI-rendszerek fejlesztésében és szabályozásában. Ha nem teszik, ezek a rendszerek olyan irányba fejlődhetnek, ami több kárt okoz, mint hasznot.
Az ideális jövő az, ahol a technológia és a klinikai szakértelem együttműködik: az AI segíti a hozzáférést és a gyakorlást, a szakemberek pedig biztosítják a határokat, a beavatkozást és az etikai felelősséget.
A mesterséges intelligencia érzelmi támogatásként való használata kulturális és technológiai fordulópontot jelez. Sok férfi számára ezek az eszközök új kapukat nyitnak a megnyíláshoz és az önfeltáráshoz; ugyanakkor nem szabad alábecsülni a veszélyeket: az önmegerősítés, a valóságtól való elrugaszkodás vagy a társfüggő kapcsolatok súlyosbíthatják a helyzetüket.
Két dolog fontos: legyünk tudatos felhasználók és tervezzük felelősséggel — szakemberek bevonásával — a mesterséges intelligenciát. Ha ezt sikerül összehozni, az AI valóban kiegészítheti a mentális egészség támogatását, de csak jól megszabott és etikus keretek között – fejtegeti Caron Evans.





