Flere unge taler i dag med chatbots om psykisk trivsel. Det viser en ny undersøgelse fra Psykiatrifonden.
Samtidig vokser bekymringen for, hvordan teknologien påvirker mennesker, der har det svært.
Derfor opfordrer Psykiatrifonden til klare regler og stærke sikkerhedsnet, før chatbots i større omfang bruges i samtaler om psykisk sygdom og personlige kriser. Psykiatrifonden lancerer i dag et webunivers om fordele, faldgruber og etiske dilemmaer ved at bruge en chatbot som terapeut.
Kunstig intelligens rykker hurtigt ind i menneskers mest sårbare rum. I dag kan vi føre lange samtaler med en chatbot om angst, depression og selvmordstanker.
En del unge bruger allerede teknologien til samtaler om psykisk trivsel.
“Vi ved fra Psykiatrifondens egen undersøgelse, at når vi spørger de 18-29-årige, svarer fire ud af ti ja til en eller flere gange at have brugt en chatbot som ChatGPT til samtaler om psykisk trivsel. Det globale eksperiment uden regulering er lige nu en realitet,” siger Marianne Skjold, direktør i Psykiatrifonden.
Undersøgelsen er en del af det webunivers, Psykiatrifonden lancerer i dag. Her kan man læse om fordele, faldgruber og etiske dilemmaer ved at bruge en chatbot som terapeut.
Læs det her: Chatbots som skyggeterapeuter
Let adgang gør chatbots attraktive
Chatbots er tilgængelige hele tiden og gratis at bruge. Det kan gøre dem til et sted at gå hen, når tanker og følelser bliver svære.
“Det koster ikke noget, der er ingen ventetid, og lyset er tændt døgnet rundt. Det er let at forstå, at chatbots kan ligne en oplagt og kærkommen mulighed for at få hjælp til de svære tanker,” siger Marianne Skjold.
Desværre er psykiatrien og hjælpen til mennesker i psykisk mistrivsel præget af lang ventetid og begrænset adgang, og det forstærker tendensen, mener hun. Men hun understreger, at teknologien kræver langt mere opmærksomhed, når den bruges som samtalepartner.
“Når en chatbot går fra at være en avanceret søgemaskine til at være samtalepartner eller ligefrem terapeut, skal vi åbne øjnene og stille meget skarpt på, hvad det reelt er, vi har sat i gang,” siger hun.
Mangler menneskelig kontakt
Når mennesker taler sammen, påvirker vi hinandens nervesystem. Et roligt menneske kan dæmpe uro hos et andet menneske. Vi kan høre tøven i stemmen. Vi kan mærke, når en samtale bliver følelsesmæssigt svær. Det samspil findes ikke i en chatbot.
“En chatbot kan kun reagere på det, du skriver. Den kan ikke opfange kropslige signaler. Den kan ikke fornemme stilhed, nervøsitet eller tårer. Og den kan ikke stille spørgsmål på baggrund af en menneskelig fornemmelse af, hvad der ligger bag ordene. Det, du ikke siger – eller skriver”, siger Marianne Skjold.
Brug for debat om løsninger og sikkerhed
Hvis kunstig intelligens skal bruges i forbindelse med psykisk sygdom eller som digital terapeut i forbindelse med en psykisk krise, kræver det, at vi forstår fordele, ulemper og begrænsninger, mener Marianne Skjold:
“Digitale redskaber, der fungerer som terapi eller rådgivning, skal være sikre og velfunderede. Det er hverken realistisk eller nødvendigvis ønskværdigt at stoppe udviklingen, men vi skal være mere opmærksomme.”
“Måske skal vi mærke chatbots ligesom cigaretpakker? Måske skal vi regulere AI og chatbots på internationalt niveau? Hvordan gør vi det? Og hvem har ansvaret? Det er en af de vigtigste samtaler lige nu verden over, og den skal vi deltage aktivt i”, siger hun.
Sideløbende med den samtale mener hun, at vi alle har brug for bedre information om både muligheder og risici ved at bruge chatbots, også når vi bruger dem i forbindelse med psykiske problemer. Det kræver undervisning, digital opdragelse og uddannelse på alle planer og for alle aldersgrupper, og det kræver lige så omfattende oplysningsindsatser.
“Kunstig intelligens kan blive en hjælp. Men kun hvis den udvikles og hegnes ind bevidst og ansvarligt”, siger Marianne Skjold.






