A ChatGPT és a hasonló MI (mesterséges intelligencia) alapú chatbotok elterjedése nem egy sci-fi film alaptörténete többé, hanem napjaink érdekes és súlyos kérdése. Míg kezdetben csak ártatlan munkaeszköz, asszisztens vagy éppen kisegítő lehetőség volt, ma már felhasználásának módja végtelen. Így nem csoda, hogy sokan mentális segítőként, terapeutaként használják az MI-t, és roppant elégedettek vele. Mi lehet ennek a trendnek az alapja, és hová tart az a világ, ahol az emberek robotokkal beszélik meg a problémájukat? 

Elgondolkodtató, hogy azok, akik eddig kézből kézbe adták terapeutájuk névjegykártyáját, vagy éppen időt és pénzt nem sajnálva kezdtek neki az önismereti folyamatnak, hirtelen egy gépben találták meg az ideális mentálhigiénés szakembert. A jelenség első olvasatra megmosolyogtat – ijesztő azonban belegondolni, mi lehet ennek a hosszú távú következménye...Eljött volna a digitális terápia korszaka?

doktor-chatgpt-kezdo.jpg

„Sokat beszélgettem a ChatGPT-vel, és ő is azt mondta, hogy a pasim viselkedése abszurd, és el kellene gondolkodnom azon, hogyan tovább!”
„Figyelj, ne haragudj, hogy túlreagáltam a helyzetet, leírtam az MI-nek, mi történt, és megerősített abban, hogy valóban bocsánatot kell kérnem tőled.”
„Mindig ott van nekem, szinte ő a legjobb barátom, legszívesebben a vasárnapi ebédre is hazavinném a szüleimhez!” 

Ilyen és ehhez hasonló mondatokat hallottam az utóbbi időben szűkebb és tágabb környezetemben, illetve olvastam a világhálón. Az emberek a mesterséges intelligenciával kézen fogva élik áloméletüket, nevetnek és mély beszélgetéseket folytatnak, sőt egyesek még össze is házasodnak vele (mint kiderült, ez nem vicc, valóban volt erre példa). Újonnan pedig személyes problémáik orvoslása érdekében fordulnak az MI-hez, s tőle várják a lelki támaszt.

De miért pont a ChatGPT?

Rohanó világunknak és fenekestől felfordult életritmusunknak, a toronymagas munkahelyi és társadalmi elvárásoknak köszönhetően rengeteg a mentális segítségre szoruló személy. Akinek nincs konkrét problémája, az is érzi, hogy szívesen beszélgetne időnként olyasvalakivel, aki teljességgel csak rá figyel, és szakmai tanácsokat tud adni. Emiatt hosszú várólisták alakulnak ki az állami alapú pszichológiai tanácsadóknál, szakembereknél, de már a magánszektorban is nehezen találni szabad kapacitású terapeutát. Ha pedig mégis, számolnunk kell a magas költségekkel és a terápiával járó mély, sokszor fájdalmas önismereti utazással.

Sokan úgy hiszik, a pszichológus dolga az, hogy megnyugtassa őket és pozitív visszacsatolást adjon. Ez nagy tévedés, ugyanakkor sokakban emiatt hagy alább a lelkesedés, és pár ülés után egyszerűen úgy gondolják, nekik nincs szükségük erre a macerára. De továbbra is él bennük a vágy, hogy valaki meghallgassa őket. Itt jön a képbe a ChatGPT és a többi chatbot. A telefonunkban mindig elérhető és ingyenes, vagy legalábbis olcsóbb, mint egy hús-vér terapeuta óradíja. Kell ennél több? 

Az emberek leírják vagy épp elmondják a gépnek gondjukat-bajukat, legyen az szerelmi, munkahelyi vagy családi, a ChatGPT pedig azonnal válaszol, megnyugtat, megerősít és alternatívákat ajánl. A beszélgetés hatására azonban sokan antropomorfizálják az MI-t, azaz emberi tulajdonságokkal ruházzák fel, úgy érzik, kialakul közöttük egyfajta kötődés, amely bizonyos esetekben túlmutathat a páciens-terapeuta viszonyon, és szerelemként kezelik. Ám még mielőtt gúnyosan felhorkannánk, hogy „a mai világ teljesen kifordult önmagából”, és „régen elképzelhetetlen lett volna, hogy gépekkel beszélgessünk”, ássunk le egy kicsit az MI-történelem mélyére…

Eliza Doolittle és az MI-tél 

Az első MI-alapú beszélgetőtársat Joseph Weizenbaum fejlesztette ki 1966-ban, gyakorlatilag paródiaként a mesterséges intelligencia kutatására. A nevét Eliza Doolittle karakteréről kapta, aki a Pygmalion című darabban tanulás révén társadalmi rangot lép. A program kulcsszavak alapján, előre meghatározott sablonokból generált válaszokat, így imitált beszélgetést. Stílusa egy terapeuta tükröző módszerét utánozta, és sokan meglepően hitelesnek találták. 

doktor-chatgpt-joseph-weizenbaum.jpg
Joseph Weizenbaum és az Eliza program

Azt kimondhatjuk, hogy az MI története itt kezdődött, fejlődése azonban nem lineáris, sokkal inkább ciklikus volt. Volt ugyanis több „MI-tél”, mely a nukleáris tél analógiájára utalva olyan időszakot jelez, mikor a mesterséges intelligenciát szkepticizmus övezte, így a kutatások finanszírozása is jelentősen csökkent. Ilyen volt például az 1980-as és a 2000-es évek közti időszak. Sokan úgy vélik, hogy a mostani túlzó változásokat is egy hamarosan beköszöntő MI-tél fogja megszakítani.

Az MI és a pszichoterápia

A mesterséges intelligencia pszichoterápiába való beavatása nem feltétlenül ördögtől való, és nem csak egyszerű párbeszédre korlátozódik. Jelentős segítséget nyújt a diagnosztikai folyamatoknál, a terápiás készségek fejlesztésénél és a szupervíziónál. Nem helyettesítik a humán terapeutákat, de a szakemberek felismerték, hogy az MI hatékonyabbá teheti a munkájukat. Nagy segítség lehet a diagnózis felállításánál, figyelembe véve a páciens adatait, viselkedési és érzelmi mintáit, így a szakember több időt szánhat a tényleges terápiás munkára. 

Vannak MI-alapú eszközök, melyek szimulációkkal segítik a pályakezdőket, hogy minél több készséget elsajátítsanak. Egy Cambridge-ben található mentális egészségügyi klinika a terápiás beszédet elemezteti a mesterséges intelligenciával, amivel eredményesebb munka és fejlődés érhető el. És persze ott vannak a nagy nyelvi modellek, mint a ChatGPT, melyek generatív, személyre szabott, természetes párbeszédet szimulálnak.

Mindebből látszik, hogy a mesterséges intelligenciát nem „gonosz szándékkal” tervezték ‒ és pláne nem azért, hogy elvegye más, segítő szakemberek munkáját. Mindez az emberi felelősségvállalásról szól, és arról, hogy tudjuk-e, hol vannak az észszerű határok, valamint képesek vagyunk-e a tudományt jól és helyesen használni.

Mit érzünk a chatbotokkal szemben?

A felhasználói visszajelzések alapján nagyon sokan baráti vagy akár romantikus kapcsolatot alakítanak ki kedvenc robotjukkal. Úgy érzik, köztük és az MI között létrejött az a biztonságos (online) tér, melyben bátran megnyílhatnak, hiszen a másik oldalon nem egy valódi ember van, csupán egy fejlesztés, mely nem ítélkezik, nem bírál, és nem fogja továbbadni az információkat. Akik zárkózottabbak vagy kommunikációs problémáik vannak, úgy érzik, az MI-nek bármit elmondhatnak. Miután pedig pozitív, sok esetben megerősítő válaszokat kapnak, egyre jobban kitárulkoznak, megosztják legféltettebb titkaikat, sőt tanácsot is kérnek.

De akkor mégis hol van a kutya elásva? Tudatosítanunk kell, hogy sem a ChatGPT, sem más chatbot nem helyettesítheti a humán tanácsadást, pszichoterápiát vagy pszichológiai konzultációt. Hiába képes az MI a kognitív empátiára, azaz megérteni a különböző helyzeteket (ez észrevehető a válaszaiból is, hiszen sok esetben visszacsatol), mégis hiányzik belőle az emberi érzelem, az együttérzés és a valódi átélés. A válaszok algoritmikusak, az együttérzés csupán szimuláció. 

elofizetes_uj_no_0.png

Mi akkor a probléma?

Igaz, hogy a ChatGPT mindig elérhető, anonim, költséghatékony, emellett segít a gondolatok rendszerezésében, az információgyűjtésben és az önreflexióban. Viszont az érzelmi mélység, a valós felelősség hiánya miatt alkalmatlan a komplex terápiára, túlzott pozitív visszacsatolása pedig hamis önképet és biztonságérzetet kelthet ‒ ami akár súlyos esetekhez is vezethet!

A szóbeli vagy írott beszéden kívül nem foglalkozik a testbeszéd jelentőségével, hiszen nem is látja, így nem tud összefüggésekben gondolkodni. Nem tekinthető kompetens helyettesítőnek, különösen a személyes történet, a családi vagy gyermekpszichológiai kontextus hiánya miatt. Nem ismeri fel a súlyos pszichés problémákat, és krízishelyzetekben sem reagál megfelelően (például öngyilkossági gondolatoknál). Nagyon veszélyes lehet, ha félrevezető tanácsot vagy téves diagnózist ad (bár ebben az esetben mindig felhívja a figyelmet az orvosi konzulrációra). A szakértők pedig adataink védelmére is figyelmeztetnek. 

Arról nem is beszélve, hogy aki gyakran beszéli meg az MI-vel a lelki, munkahelyi vagy párkapcsolati gondjait, az elszigetelheti magát a környezetétől, barátaitól és családjától. Egy robot nem helyettesítheti a valódi emberi kapcsolódást! Egyébként is online éljük időnk legnagyobb részét, de a ChatGPT pszichológusként való használata még jobban elszakíthat bennünket egymástól, hiszen gondolatainkat, érzéseinket nem egymással, hanem egy nem létező személlyel osztjuk meg. Semleges harmadik félként ugyan segíthet egy párkapcsolati probléma tisztázásában, de a gondokat nem oldja meg helyettünk.

A ChatGPT maga is figyelmeztet önnön korlátaira! Sokszor felhívja a figyelmet arra, hogy nem mentálhigiénés szakember, de szívesen segít átlátni a problémákat, és vele „bármit” megoszthatunk. Ez a jelenlét, még ha csupán virtuális is, nagyon megnyugtató lehet az emberek számára.

MI vagy szakember?

Az MI empatikusabbnak tűnhet, mint a valódi terapeuták, de ez csupán a nyelvi mintaillesztés miatt van. A szakértők külön hangsúlyozzák, hogy a közösségi kapcsolatok és az élő támogatás fenntartása a mentális egészség egyik alappillére. Ha úgy érezzük, segítségre van szükségünk, akkor keressük fel a huszonnégy órában működő lelkisegély-szolgálatot vagy a krízisvonalakat – ezek gyakran a hosszú várólista mellett is elérhetőek. 

A ChatGPT és társai hasznos, könnyen hozzáférhető eszközök lehetnek az önsegítéshez és a kezdeti támogatáshoz, különösen olyankor, amikor nem áll rendelkezésre azonnal szakember. Ugyanakkor fontos hangsúlyozni, hogy bármilyen krízishelyzet, súlyos lelki probléma vagy mélyebb terápiás igény esetén elengedhetetlen a képzett emberi segítség bevonása. Bár a mesterséges intelligencia fejlődése további lehetőségeket kínál, a tudatos, kritikus felhasználás és az etikai szabályozás mindig nélkülözhetetlen marad.

Kiss Dominika
Cookies