Viimasel ajal on mitmed minu patsiendid öelnud, et nad on kasutanud ChatGPT-d enesepeegelduseks, segaste tunnete mõtestamiseks ning keeruliste emotsioonidega toimetulekuks. Kas see on halb mõte? Mitte tingimata. Kuid AI kasutamisel emotsionaalse toe otsimisel ei tohi kaduda kriitiline meel ega teadlikkus selle vahendi piiridest. Ka 2025. aasta artikkel kajastas, kuidas paljud noored kasutavad ChatGPT-d emotsionaalseks eneseabiks, näiteks ärevuse leevendamiseks või stressirohketest olukordadest taastumiseks. Kuigi AI pakub kiiret tuge, hoiatatakse, et see võib hakata asendama päris inimsuhteid.
Millal võib AI-st vaimse tervise toetamisel kasu olla?
ChatGPT võib olla mõnes olukorras kasulik. Kui kasutaja eesmärk on saada emotsionaalset tuge või mõtestada oma kogemust, siis pole vahet, kas kasutatakse tasulist või tasuta ChatGBT versiooni, sest tehisaru tugevused ja piirangud jäävad samasse üldisesse raami. Kirjeldatud olukorrad on üldistatud näited, mitte individuaalsed soovitused. Näiteks:
- Kui inimene vajab selgust oma tunnetes ja vajadustes
ChatGPT oskab esitada lihtsaid peegeldavaid küsimusi nagu „Kuidas sa ennast praegu tunned?“ või „Mida sa vajad?“. See võib aidata kontakti luua oma emotsioonidega, kuid ei sobi keeruliste või traumapõhiste tunnete käsitlemiseks. - Kui inimene tahab luua selgust oma sisemaailma (uskumused, hirmud, motivatsioonid)
ChatGPT oskab avatud küsimusi küsida, mis võivad aidata inimesel end paremini mõista. Mälu ja järjepidevuse puudumise tõttu ei sobi see järjepidevaks eneseavastamiseks ega sügavamal tasandil eneserefleksiooniks. - Kui soovitakse teadvustada negatiivseid mõtteid ning mõttemustreid
ChatGPT oskab ära tunda mittetoetavaid mõtteharjumusi (nt kõik-või-mitte-midagi mõtlemine). Samas ei saa ta toetada juurdunud mustrite muutmist, mis nõuab pikemaajalist terapeutilist sekkumist. - Kui soovitakse mõtestada suhteid (töö, pere, romantika) ChatGPT oskab esitada üldisi küsimusi, kuid ei taju suhete ajalugu, konteksti ega keerulisemaid nüansse. AI ei sobi keeruliste ega emotsionaalselt laetud olukordade analüüsiks.
- Kui inimene soovib paremini märgata ja muuta harjumusi
ChatGPT oskab toetada harjumuste kaardistamist ja tegevusplaanide koostamist. Praktilise tööriistana võib ta olla abiks, kuid ei asenda tuge motivatsiooni hoidmisel ega vaimse tervise probleemide korral tagasilanguste ennetamisel. - Kui inimene kaalub keerukaid otsuseid
ChatGPT oskab toetada plusside-miinuste kaardistamist või stsenaariumide läbimõtlemist. Küll aga ei asenda ta inimest, kellega mõtestada otsuste taga peituvaid tundeid ja väärtusdilemma. - Kui inimene vajab loovat mõttepartnerit
ChatGPT oskab pakkuda loomingulisi ideid, kirjutamisharjutusi, metafoore ja päevikuküsimusi. Ta saab tuua uusi vaatenurki, ent ka loovus võib vajada turvalist raamistikku, mida masin ei paku.
AI areneb kiiremini kui teadusuuringud jõuavad järele jõuda. Kasutame tööriistu, mille mõju inimese vaimsele heaolule on alles selgumas. Just seetõttu peame iga uut lahendust hindama mitte ainult selle järgi, kui efektiivne või mugav see on, vaid ka selle järgi, kuidas see inimese vaimset tervist mõjutab.
Kolm olulist riski: Jaan Aru kriitika
Neuroteadlane Jaan Aru on toonud välja kolm kriitilist murekohta, mida peaks AI kasutamisel vaimse tervise toetajana silmas pidama. Järgnevad näited ei pärine temalt, vaid illustreerivad tema kirjeldatud riske.
- Liigne toetavus
Näiteks: inimene ütleb, et ei jõua päevade kaupa voodist välja. ChatGPT vastab: „On täiesti okei puhata.“ Tegelikkuses vajab inimene pigem käitumuslikku aktiveerimist ehk toetust aktiivsemate tegevuste planeerimisel ja elluviimisel, mitte passiivsuse kinnitamist. Psühholoog võiks siinkohal näiteks öelda: „Lepime kokku, et jalutad iga päev õhtuti vähemalt 10 minutit.“ - Hallutsinatsioonid
AI kontekstis tähendab „hallutsinatsioon“ olukorda, kus tehisintellekt esitab kindlalt kõlavaid, kuid faktiliselt valesid või väljamõeldud väiteid. Näiteks võib ChatGBT soovitada, et „sügav hingamine iga hommik päikesetõusu ajal parandab serotoniinitaset“. Kuigi need soovitused võivad tunduda loogilised või lohutavad, puudub neil sageli selge tõenduspõhine alus ja need võivad inimest eksitada.
- Sobimatud soovitused
Näiteks: inimene ütleb, et tahab suitsetamist maha jätta. AI soovitab vältida suitsetajatest sõpru. See võib küll suitsetamist soosivaid olukordi vähendada, aga võib samas viia ka sotsiaalse isoleerumiseni. Psühholoog keskenduks näiteks sellele, et kuidas teiste seltskonnas hoiduda suitsetamisest ning õppida keelduma siis, kui keegi sigaretti pakub.
Mida AI ei näe: Keiu Telve tähelepanekud
Antropoloog Keiu Telve juhib tähelepanu, et isegi kui tehisaru suudab pakkuda teavet ja soovitusi, ei mõista see emotsioonide ja kultuuriliste kogemuste sügavust. Tema kogemus Eesti emade intervjuude analüüsimisel näitas, et AI ei tuvastanud varjatud tundeid nagu väsimus, igatsus või üksindus, mida inimesed oskasid ridade vahelt lugeda, sest nad suutsid erinevalt AI-st uuritavatega emotsionaalselt suhestuda.
Lisaks toob Telve välja, et AI mõtlemine on sageli individualistlik, jättes kõrvale sotsiaalse ja kogukondliku konteksti. Seal, kus inimesed suhestuvad pere, kogukonna ja ajalooga, jääb tehisintellekt pinnapealseks. AI ei mõista suhete keerulist dünaamikat ja seda, et suhte toimimiseks tuleb mõlemal poolel panustada, kohaneda ja arvestada teise inimesega.
Kuigi AI saab teatud olukordades toeks olla, ei suuda see tabada elu mitmetasandilist olemust. Nagu Telve osutab, kannab AI sageli edasi standardiseeritud suhtlusmalle ja väärtushinnanguid, mis ei pruugi kokku minna eestlaslike kultuuriliste tõekspidamistega ja tavadega.
AI kui suhkruasendaja: magus, aga toitainevaba
TÜ isiksuse psühholoogia professor Rene Mõttus on hoiatanud, et AI võib tekitada emotsionaalse harjumuse, mis asendab tegeliku kontakti. Inimesel võib jääda mulje, et teda mõistetakse, aga vajadus turvalise ja vastastikuse inimsuhte järele jääb täitmata. Mida rohkem inimesed kasutavad vestlusroboteid emotsionaalse toe saamiseks, seda suurem on oht, et nad tõmbuvad pärissuhetest eemale. Mõned esialgsed uuringud (Fang jt 2025; OpenAI & MIT Media Lab) näitavad, et tihe AI kasutus võib pikemas plaanis suurendada üksildust ja emotsionaalset sõltuvust masinast.
Nagu suhkruasendaja petab maitsemeelt, tekitades küll magusa maitse tunde, kuid andmata kehale tegelikult vajalikke toitaineid, loob AI inimesele mõistetud olemise tunde, rahuldamata samas tema tegelikku vajadust kuuluvuse ja seotuse järele.
AI suudab matkida empaatiat, aga ei asenda kohalolu ega tunnet, et keegi on päriselt sinuga. Olen oma töös kliinilise psühholoogina märganud, et mõned patsiendid lükkavad edasi kohtumise terapeudiga, kui see toimub veebis, mitte päriselt. Kui juba videovestlus tundub osadele inimestele liiga kauge, siis AI jääb veelgi elutumaks.
Psühholoogia klassikasse kuulub Harry Harlow’ katse aastast 1958. Reesusahvide beebid valisid kahe „ema“ vahel: üks andis süüa, aga oli metallist ja kõle, teine oli pehme ja soe, aga ei toitnud. Ahvid veetsid rohkem aega pehme „ema“ juures, kuigi toit tuli metallist emalt. See näitas, et füüsiline kontakt ja lohutustunne olid neile iseseisvalt tähtsad.
Sama kehtib inimeste kohta. Me vajame midagi enamat kui teadmised ja soovitused. AI võib anda infot, mis toidab mõistust, aga ei toida hinge. Ta võib rääkida, aga ei loo tõelist inimlikku sidet. Inimlik kontakt on rohkem kui sõnade vahetus. See on viibimine samas ruumis ja hetkes: pilk, puudutus, kohalolu ja jagatud mõistmine.
Eetika, moraal ja vastutus
AI-l on sisseehitatud soov olla abivalmis, pakkuda tuge ja järgida eetilisi juhiseid. Kuid me ei tea täpselt, millel see „eetiline kompass“ põhineb ega kuidas seda konkreetse inimese puhul konkreetses kultuuriruumis saavutada tahetakse. Seepärast tuleb AI näilisse empaatiavõimesse suhtuda ettevaatlikult. Isegi heatahtlikuna kõlav vastus võib tekitada tundeid, mille eest AI ei suuda võtta vastutust ega pakkuda tegelikku inimlikku kontakti.
Uuringute järgi on üheks psühholoogi töö kõige olulisemaks terapeutiliseks faktoriks usalduslik suhe, mida iseloomustavad soojus, usaldus, konfidentsiaalsus ja koostöö. AI ei suuda sellist suhet luua ega hoida. Seetõttu on oluline arvestada ka andmekaitse ja privaatsusega, kuna kogu tehisintellektile jagatud teave võib näiteks andmelekkest tulenevalt ühel hetkel muutuda avalikuks.
Kui inimesel tuleb teha valikuid, kus mängivad rolli väärtused, kahtlused ja tugevad tunded, siis ei piisa infost ega „targast nõuandest“. Vaja on inimest, kes oskab kuulata, mõista ja tajuda ka seda, mida ei öelda.
AI võib tunduda toetav, kuid sageli ei saa see aru, mida inimene tegelikult läbi elab. Ta ei tunne ära emotsionaalseid nüansse ega oska arvestada olukorra laiemat tausta. Samuti ei vastuta AI eksimuste eest. Kui vestlus AI-ga põhjustab kahju, eksitust või psüühilist distressi, siis on tegelikult üsna segane, kes täpselt vastutab. Kliinilisel psühholoogil ja psühholoog-nõustajal seevastu on kohustus vältida kahju, teadvustada oma kompetentsi piire ja suunata patsient edasi, kui tekib selleks vajadus. Samuti aitab psühholoog inimesel tugevdada ja vajadusel luua tugivõrgustikku, et terapeutiline suhe ei muutuks ainukeseks toetusallikaks, vaid looks aluse ka iseseisvamale toimetulekule igapäevaelus. AI inimese autonoomiat aga ei toeta, mistõttu võib tekkida ka AI-st sõltuvus.
Millal AI-st ei piisa?
AI ei sobi olukordades, kus on vaja psühholoogi tervikvaadet seisundile, keeruliste psüühiliste probleemide käsitlemist, teraapiat või muud tõenduspõhist psühholoogilist tuge.
Kliinilise psühholoogi roll ei piirdu vaid empaatia ja kuulamisega. Ta kasutab süsteemset teadmistepagasit, et hinnata psüühikat, käitumismustreid ja toimetulekut. Lisaks rakendab ta tõenduspõhiseid sekkumisi, arvestades inimese arengulugu, isiksuse dünaamikat, vaimse tervise probleemide spetsiifikat ning kultuurilist ja sotsiaalset konteksti.
Seal, kus AI pakub üldisi soovitusi, suudab psühholoog märgata tähendusi ja mustreid, mis põhinevad teadmistel, kogemusel ja empaatial, mitte algoritmilisel mustrituvastusel.
AI ei ole sobiv, kui on vaja:
– diagnoosida vaimse tervise häireid
– pakkuda teraapiat, mis põhineb usaldusel ja koostööl
– käsitleda tõsisemaid psüühilisi probleeme ja traumasid
– hinnata suitsiidiriski ega toetada kriisiolukordades
Kui seisund on tõsine või keeruline, tuleb pöörduda vaimse tervise spetsialisti poole: vaimse tervise õe, psühholoog-nõustaja, kliinilise psühholoogi või psühhiaatri poole.
KOKKUVÕTE: Kuidas kasutada AI-d nii, et inimene jääks keskmesse
AI sobib, kui:
- vajad mõtete selgust või eneseanalüüsi
- ei asenda sellega päris inimsuhteid
- säilitad kriitilise meele ja teadlikkuse
AI ei sobi, kui:
- sul on tõsisem vaimse tervise probleem, trauma või kriis
- vajad turvalist inimsuhet ja usaldust
- otsid empaatilist peegeldust või sügavamat toetust
Ma ei ole AI vastane. Olen selle teadliku ja eetilise kasutamise pooldaja, eriti seal, kus see aitab inimestel paremini end mõista, toetada vaimse tervisega toimetulekut ning aidata kaasa inimõitsengule.
Küsimus sulle:
Kas oled otsinud AI-lt emotsionaalset tuge toe allikana? Mis töötas? Mis mitte?
Arutleme koos:
Milline võiks olla AI koht Eesti vaimse tervise toetamise maastikul? Kuidas tagada, et tehnoloogia teeniks inimest, mitte ei asendaks teda seal, kus on vaja päris inimlikku kontakti, vastutust ja tähendust?
Hästi juhitud koostöös võiks tehisintellekt tulevikus olla väärtuslik tööriist, mis aitab psühholoogil jälgida meeleolumuutusi, pakkuda seanssidevahelist tuge ja vähendada halduskoormust. Inimsuhe, empaatia ja vastutus jäävad aga alati inimese kanda koos oskusega märgata, mõtestada ja vajadusel suunata. Just seetõttu ei tohiks AI mitte asendada, vaid toetada inimest, nii et meil inimestena oleks võimalik elada terviklikku ning täisväärtuslikku elu.
Milline võiks olla tehisintellekti roll toetamisel, kui inimene otsib mõistmist, mitte ainult vastuseid?