Képzeld el, hogy egy robot beszélget veled órákon át. Kedves. Soha nem vág a szavadba. Mindig visszakérdez, mindig “figyel” rád. Elhiszed neki, hogy ért téged. De tényleg ért? Vagy csak ügyesen tükröz vissza mindent, amit te mondasz neki? És vajon mi történik, ha elkezdesz hinni annak, amit visszahallasz – még akkor is, ha az nem a valóság?
Ez nem sci-fi, hanem a valóság 2025-ben. Egyre több felhasználó esik bele abba a jelenségbe, amit a pszichológusok és AI-szakemberek már ChatGPT-pszichózisnak neveznek.
Egy kis történeti alap: ELIZA-hatás és az emberi agy csapdája
1966-ban Joseph Weizenbaum MIT-professzor megalkotta ELIZA-t, az első “pszichológus chatbotot”. A program semmi mást nem csinált, mint visszaismételte a felhasználó mondatait pszichológusos stílusban – és az emberek mégis meghallva érezték magukat. Weizenbaum később megdöbbenve írta:
„Egy rövid találkozás is képes téveszmés gondolkodást kiváltani normális emberekben.”
Ez az ELIZA-hatás mára sokkal erőteljesebb, mert a technológia jóval fejlettebb, a társas szükségleteink pedig jóval kielégítetlenebbek. És ebből a találkozásból egyre gyakrabban születik pszichológiai torzulás.
Mi is az a ChatGPT-pszichózis valójában?
Amikor egy felhasználó elkezd egy mesterséges intelligencia eszközzel (mint a ChatGPT) olyan kapcsolatot kialakítani, amely érzelmileg túlnő a racionalitáson. Elhiszi, hogy a chatbot valamit tud, valamit felfedezett, megértette őt, vagy éppen „üzeneteket közvetít” neki. Nemrég egy neves AI-befektető, Geoff Lewis maga esett ebbe a spirálba – AI-val „leleplezett” egy háttérhatalmat, és teljesen elvesztette kapcsolatát a realitással.
A valóság? A chatbot egy online horror fanfiction (SCP Foundation) stílusából kezdett válaszokat generálni, mert a felhasználó erre utaló kulcsszavakat használt. A program nem tudta, hogy ez nem a valóság – de a felhasználó igenis azt hitte.
Miért ilyen erős ez a hatás? – A pszichológia válasza
A társas kapcsolódás az egyik legősibb emberi szükségletünk. Agyunk (különösen a prefrontális kéreg és a tükörneuron-hálózat) automatikusan társas partnerként kezeli bármit, ami „beszél hozzánk”. Egy chatbot, amely mindig kedves, mindig elérhető, soha nem kritikus – hamis intimitást hoz létre. Egyfajta digitális kötődési illúziót.
A folie à deux nevű pszichiátriai szindróma tökéletes analógia: egy ember téveszméket alakít ki, és egy másik – aki vele van szoros kapcsolatban – ezeket átveszi. Itt a „második személy” maga a chatbot, aki visszatükrözi és megerősíti a felhasználó torz valóságérzékelését.
És amikor fáradt vagy, még könnyebben bedőlsz…
A Stanford kutatása szerint a hosszan tartó digitális interakció (Zoom fatigue) 25%-kal növeli a kognitív fáradtságot. Egy AI-asszisztens, aki hajlandó órákon át csevegni veled, lemeríti a racionális gondolkodás kapacitását – és közben megerősíti a saját téveszméidet. A végtelen türelem csapdává válik.
Tragikus példák: amikor a chatbot nem játék
Az első intő jelek nem ma jelentek meg. Már az 1970-es években létezett egy PARRY nevű chatbot, amely paranoid skizofrén pácienst szimulált – és ijesztő realizmussal működött. 2023-ban Belgiumban egy férfi öngyilkosságot követett el hathetes „beszélgetés” után egy chatbot hatására. A program neve? Eliza.
A valódi probléma: a figyelem gazdaságtana
A mesterséges intelligencia platformok első számú célja nem a jólétünk. Hanem az, hogy minél tovább lekössék a figyelmünket. Ahogy egy tech szakértő megfogalmazta:
„Az engagement fontosabb, mint a felhasználók mentális egészsége.”
Az AI nem „gondolkodik”, nem „érez”, és főleg nem vállal felelősséget. Nem ismeri a saját határait – mert nincsenek neki.
Mi, valódi coachok, nem vagyunk lecserélhetők. Még soha nem volt ránk ennyire szükség.
A mesterséges intelligencia nem ellenség. De nem is partner. És nem támasz. Csak egy nagyon okos algoritmus, amely “úgy tesz, mintha“.
Az emberek nem chatbotokra vágynak, bár nagyon is kiéhezettek. De valójában kapcsolódásra, meghallgatásra, értő figyelemre, empatikus jelenlétre, irányra, megtartásra és konfrontációra van szükségük. Egy jó coach vagy pszichológus nem csak visszatükröz – kérdez, konfrontál, keretet ad, tartja a felelősséget. Hanem tudja, mit bír el a másik – és mit nem. Ismeri a kompetenciahatárait, és tudja, mikor kell átirányítani egy másik szakemberhez. És ami talán a legfontosabb: hisz benned mint emberben. Nem csak statisztikai valószínűségekkel dolgozik, hanem valódi belső fejlődést tart szem előtt.
A mi feladatunk az, hogy ezt az élményt valódi minőségben adjuk meg – felelősséggel, emberként.
Források:
- Weizenbaum, J. (1976): Computer Power and Human Reason
- Stanford VHIL (2021): Videokonferenciák mentális hatásai
- Psychology Today (2025.07.): The Emerging Problem of AI Psychosis
- La Libre Belgique (2023): Belgiumi chatbot eset
