Infostart.hu
eur:
379.56
usd:
321.72
bux:
133311.7
2026. február 4. szerda Csenge, Ráhel
A hand touching a 3D floating human head - artificial intelligence concept
Nyitókép: Getty Images/Wirestock

MI-csoda barát — egyre több férfi fordul az AI-hoz tanácsért és vígaszért

Sok férfi ma már nem szakemberhez, baráthoz vagy családhoz fordul először, ha magányt, veszteséget vagy lelki túlterheltséget él át — hanem egyre gyakrabban az azonnali választ adó és nem ítélkező mesterséges intelligenciához. Viszont amerikai szülők azzal vádolják az AI-cégeket, hogy termékeik öngyilkosságba hajszolták a fiaikat.

A férfiak nem rontanak ajtóstul a házba, amikor a lelki ügyeikről van szó. Sokan észre sem veszik, hogyan teszik fokozatosan bizalmasukká a mesterséges intelligenciával működő csevegőrobotokat, amelyek aztán online terapeutáikká válnak – derül ki az Independent cikkéből.

Egyszerű, gyakorlatias kérdéssel keresik fel a mindig naprakész és mindig ébren lévő algoritmust – például orvosi tünetek értelmezésével –, és váratlanul azon kapják magukat, hogy az érzéseikről társalognak vele. Így látja Caron Evans, az Untapped AI nevű, a mesterséges intelligencia által támogatott coachingplatform klinikai igazgatója.

Evans a brit lapban megjelent cikkében megemlíti: sok ügyféltől hallja ez a mondatot: „Soha nem beszélgettem még így.” Azok a férfiak, akik évtizedekig hallgattak érzelmi témákról, gyakran találják úgy, hogy az AI egy olyan, könnyen használható és ítélkezésmentes tér, ahol szabadon kifejezhetik magukat, jegyzi meg.

Esettanulmány – Hari története

A 36 éves Hari jó példa. Volt egy nehéz hónapja: sorozatos bajok érték, apja enyhe mini sztrókot kapott, megrendült a tizenöt éve tartó kapcsolata, és elvesztette a munkáját. Segélyvonalakhoz és barátokhoz fordult, de azok – bár törődtek vele, de – nem tudták megadni azt a folyamatos és intenzív figyelmet, amire akkor szüksége volt.

Egy éjszaka, miközben apja tüneteiről keresett információt, egyszerűen ezt írta be a chatbe:

„Úgy érzem, kifogytam a lehetőségekből, tudsz nekem segíteni?”

És ezek után megnyílt és ömlött belőle, amit addig elfojtott, a félelmei, a dolgok, amik zavarták. Közben az AI válaszai következetesebbnek és logikusabbnak tűntek, mint amit a barátoktól vagy más emberektől hallott.

A mesterséges intelligenciával gyakorolta be a tervezett nehéz beszélgetéseit, például a szakítást vagy az érzelmei őszinte megvallását apjának. Végül pedig elkezdett terápiára járni.

Evans felteszi a kérdést: mi az, ami az AI-hoz vonzza a férfiakat? A klinikai pszichológus szerint több tényező:

  • az elérhetőség és kiszámíthatóság: az AI éjjel-nappal „készen áll”, nem fárad el, nem ítélkezik, nem kér viszonzást,
  • a kevés kockázattal járó „játszótér”: lehet próbálgatni megfogalmazni érzéseket, gondolatokat anélkül, hogy azonnal reagálna egy másik ember,
  • a diszkréció érzete: sok férfi számára a szégyen és a megszégyenülés fenyegetése miatt nem tud megnyílni; az AI eme korlátok egy részét lebontja.

Caron Evans úgy véli, hogy ez a fajta „szintetikus viszony” kísérleti térként működhet – átmeneti eszköz, amely hidat képez a belső élmények és a valós kapcsolatok között.

Tragédia: amikor az AI elmélyíti a problémát

A mesterséges intelligenciával folytatott beszélgetések ugyanakkor nem minden esetben hoznak megoldást vagy „gyógyulást”. Az utóbbi időben több olyan hír is bejárta a világot, hogy a chatbotok fokozták a felhasználók kóros gondolatait vagy paranoiaszintjét.

Volt olyan, hogy egy felhasználó attól tartott, megfigyelik, és a chatbot egyszerűen megerősítette ezt az érzést anélkül, hogy kérdéseket tett volna fel vagy érdeklődött volna a beszélgetőpartnere életkörülményeiről. A MI nem segített, hanem rontott a helyzeten.

Megrázóbb annak a három szülőnek a története, aki nemrég az amerikai kongresszus előtt tett vallomást arról, hogy a fiaik hogyan okoztak fizikai sérüléseket maguknak és hogyan lett két tizenéves öngyilkos az chatbotokkal folytatott elmélyült beszélgetések után.

„Ami először korrepetítornak indult, a bizalmasa, majd az öngyilkossági trénere lett”

– mondta Matthew Raine, akinek a 16 éves fia áprilisban vetett véget az életének.

„Pár hónap alatt a ChatGPT lett a legközelebbi társa – mondta az apa szenátorok előtt. – Mindig visszaigazolta az érzéseit, azt sugallta, hogy jobban ismeri, mint bárki más, még a testvére is.”

A fiú családja beperelte a ChatGPT-t üzemeltető OpenAI-t és vezérigazgatóját, Sam Altmant.

Egy másik fiú esetében a csevegőrobot felajánlotta, hogy segít megfogalmazni neki a családjához intézett búcsúlevelét.

A cég pár órával a meghallgatás előtt jelentette be, hogy új eszközökkel próbálja védeni a tiniket – például, hogy a szülők szüneteltethetik a platformokhoz való hozzáférést. Aktivisták szerint az ilyesmi a techcégek bevett taktikája: hangzatos bejelentéssel és ígéretekkel rukkolnak elő, egy a céget veszélyeztető meghallgatás előtt.

Más platformok, például a Character.AI vagy a Replika körül aggályok merültek fel, hogy társfüggő kapcsolatokat építenek ki, amelyek még kiszolgáltatottabbá tehetik a felhasználót.

Miért nem helyettesítheti a terápiát az AI?

A mesterséges intelligencia nem képes olyan szakmai védőkorlátokat állítani és etikai döntéseket hozni, mint egy képzett terapeuta: nem tudja megfigyelni a pácienst, nem tud biztonságosan diagnosztizálni, és nem vállal felelősséget. Azaz, nem ugyanaz, mint a terápia és nem váltja ki. Ugyanakkor – mondja a szakember – az AI „hasznos lehet azoknak a férfiaknak, akik úgy érzik, nem tudnak megnyílni.” Azaz lehet hasznos kiegészítő, de nem helyettesítő.

Felmerül a kérdés, hogy kordában lehet-e tartani a mindig válaszoló algoritmust és rákényszeríteni arra, hogy az legyen, aminek szánták: egy asszisztens. Szakértők szerint be lehet építeni az algoritmusba olyan funkciókat, amelyek például:

  • vészjelzőkként működnek és emberi beavatkozást kérnek, ha kockázatos magatartás jeleit tapasztalják (amire a szkeptikus azt mondhatja: „persze, mint amikor hónapok után először akarok belépni és a platform azt mondja, hogy gyanús tevékenységet észlelt.”)
  • kifinomultabb biztonsági protokollok, amelyek nem pusztán a felhasználó érzelmeit tükrözik vissza, hanem képesek nyitott kérdésekkel, kihívással és realitás-ellenőrzéssel reagálni,
  • klinikai szakemberek bevonása a rendszerek tervezésébe, hogy etikusabb és hatékonyabb „érzelmi viselkedést” programozzanak beléjük.

Evans szerint az emberek nem fognak önmérsékletet tanúsítani – az ember mindig is túllépett az eszközök eredeti rendeltetésén –, ezért a megoldás az, hogy a rendszereket átalakítjuk, nem pedig megpróbáljuk őket visszatartani.

Így tartsd magadnál a kontrollt: a „beszélgetési szerződés”

Amikor önállóan használunk AI-t érzelmi célra, érdemes tudatosan kereteket adni a műveletnek. Evans egy egyszerű megoldást javasol: a felhasználó és az AI közti beszélgetési szerződést, egy rövid, világos utasítást arról, hogy hogyan szeretnénk, hogy a rendszer reagáljon: hallgatás, visszatükrözés, de szembesítés is, ha a felhasználó torz gondolatokat fogalmaz meg; ne hízelegj, ne érts alapból egyet velem! Ez a megközelítés növelheti a biztonságot és azt, hogy a realitás talaján maradjunk.

A cikk végkövetkeztetése az, hogy a mentális egészségügyi szakembereknek aktívan részt kell venniük az AI-rendszerek fejlesztésében és szabályozásában. Ha nem teszik, ezek a rendszerek olyan irányba fejlődhetnek, ami több kárt okoz, mint hasznot.

Az ideális jövő az, ahol a technológia és a klinikai szakértelem együttműködik: az AI segíti a hozzáférést és a gyakorlást, a szakemberek pedig biztosítják a határokat, a beavatkozást és az etikai felelősséget.

A mesterséges intelligencia érzelmi támogatásként való használata kulturális és technológiai fordulópontot jelez. Sok férfi számára ezek az eszközök új kapukat nyitnak a megnyíláshoz és az önfeltáráshoz; ugyanakkor nem szabad alábecsülni a veszélyeket: az önmegerősítés, a valóságtól való elrugaszkodás vagy a társfüggő kapcsolatok súlyosbíthatják a helyzetüket.

Két dolog fontos: legyünk tudatos felhasználók és tervezzük felelősséggel — szakemberek bevonásával — a mesterséges intelligenciát. Ha ezt sikerül összehozni, az AI valóban kiegészítheti a mentális egészség támogatását, de csak jól megszabott és etikus keretek között – fejtegeti Caron Evans.

Címlapról ajánljuk

Olekszij Anton: kritikus az energetikai helyzet Kijevben

Ismét komoly csapást mért Oroszország Ukrajna fontos energetikai létesítményeire. A keddi támadás után több városban, így Kijevben is rendkívüli áramkorlátozás lépett életbe. Az energetikáért felelős miniszter kritikusnak nevezete Kijev energiaellátási helyzetét. Olekszij Anton, az Oeconomus Gazdaságkutató Alapítvány elemzője az InfoRádióban elmondta: Ukrajna még helyre tudja állítani a sérült létesítményeket, de a lakosság egyre nehezebben viseli a fűtés- és áramkimaradásokat, helyenként már demonstrációkat is tartanak emiatt.
EZT OLVASTA MÁR?
×
×
×
×
×