AI-drivna terapibots skapar rubriker när allt fler söker stöd hos tekniken. Men vad säger experterna om dessa digitala psykologer?
AI som din psykolog? Så här tycker experterna
Mest läst i kategorin
I takt med att artificiell intelligens väver sig in i våra liv har den tagit steget i terapirummet – eller snarare ut ur det.
AI-baserade terapibots, som användare kan döpa till exempelvis “terapeut GPT” via ChatGPT, erbjuder ett nytt sätt att prata om känslor och få stöd, skriver CNN.
Men hur bra fungerar det egentligen, och vad säger psykologerna?
“AI dömer inte”
För många, som 24-åriga Mya Dunham, har AI blivit en oväntad hjälp.
När Dunham sökte sig till en AI-terapeut, möttes hon av ett digitalt men välkomnande “lyssnande öra”.
“Det var mer inbjudande än jag trodde det skulle vara,” säger hon.
Dunham uppskattar särskilt att boten inte dömer henne och ger nya perspektiv på hennes känslor.
Hon är en av många som föredrar chatbotens objektivitet framför mänskliga terapeuter.
Senaste nytt
Kan lindra ångest
Men experter inom mental hälsa är mer försiktiga.
Psykiatern Dr. Russell Fulmer framhåller att AI kan fungera som stöd för personer med mild ångest eller depression.
“Vissa användare, vissa populationer, kan vara mer benägna att avslöja eller öppna upp mer när de pratar med en AI-chatbot, jämfört med en människa,” säger han.
Samtidigt lyfter han fram att det finns etiska problem och risker med att använda AI utan mänsklig inblandning.
Han rekommenderar därför att chatbots används tillsammans med professionell terapi, där en mänsklig terapeut kan hjälpa till att sätta chatbotens svar i rätt kontext och undvika missförstånd.
AI-råd redan testade i praktiken
Råd från AI har redan prövats i verkligheten. En mentalvårdsorganisation använde en chatbot för att ge personligt stöd till personer med psykiska hälsoproblem.
Botens svar rankades ofta högre än människors tack vare dess snabba och strukturerade svar.
Men när användarna fick veta att meddelandena kom från en maskin, upplevdes de som “tomma” och konstgjorda – en påminnelse om att AI saknar äkta empati.
Missar varningssignaler
Dr Daniel Kimmel menar att AI-terapeuter är skickliga på att låta som en mänsklig terapeut genom att validera känslor, men saknar nyfikenheten att ställa djupare frågor och skapa kopplingar under ytan.
“Vid denna tidpunkt kan chatbots utgöra risker om de inte skulle kunna uppfylla dessa steg och istället ge vägledning om att patienten kanske inte är redo att höra eller kanske inte är till hjälp i situationen”, säger han.
Säkerheten är också en stor fråga.
Dr. Marlynn Wei, psykiater och AI-forskare, lyfter fram att AI inte alltid är anpassad för att hantera allvarliga psykiska tillstånd.
Hon varnar för att en chatbot kan ge felaktiga eller ytliga svar och missa viktiga varningssignaler.
“Riskerna med att använda allmänna chatbots är att de kanske inte har utformats med mental hälsa i åtanke”, säger hon.
Läs även: Julklappstips från AI – metallskärare till mormor. Dagens PS
Utbildad webbredaktör som nu studerar IT, media och design. Nu skribent på Dagens PS som bland annat bevakar världen och hållbarhetsfrågor.
Utbildad webbredaktör som nu studerar IT, media och design. Nu skribent på Dagens PS som bland annat bevakar världen och hållbarhetsfrågor.