Professor ser akut behov for forskning i AI-chatbots og vrangforestillinger

Professor Søren Dinesen Østergaard opfordrer til systematisk forskning i, hvordan chatbots drevet af kunstig intelligens påvirker psykisk sårbare brugere.

Millioner bruger AI-chatbots dagligt, men vi ved stadig for lidt om teknologiens påvirkning af psykisk sårbare brugere, mener professor. Foto: AI-genereret illustration

Millioner bruger AI-chatbots hver dag, men vi ved ikke nok om, hvad teknologien gør ved psykisk sårbare mennesker. 

Professor Søren Dinesen Østergaard fra Institut for Klinisk Medicin og Aarhus Universitetshospital Psykiatrien efterlyser nu forskning i et felt, hvor anekdoterne bliver flere og flere, men evidensen mangler. Det store spørgsmål er, hvorvidt brug af AI-chatbots kan udløse vrangforestillinger hos psykisk sårbare personer. 

”Personligt er jeg ret sikker på, at der er tale om en reel årsagssammenhæng, men min personlige holdning er ret uinteressant – hypotesen skal underbygges af forskning,” siger han.

Da AI-chatbots som ChatGPT dukkede op sidst i 2022, var Søren Dinesen Østergaard blandt de første til at spotte de potentielle risici. 

”Efter selv at have eksperimenteret med AI-chatbots som ChatGPT var min mavefornemmelse, at brugen kunne være risikabel for mennesker, der er disponeret for at udvikle vrangforestillinger," siger han.

Han skrev i august 2023 en leder i det videnskabelige tidsskrift Schizophrenia Bulletin, hvor han beskrev netop denne bekymring ved teknologien. 

Fra mavefornemmelse til forskning

Siden 2023 har Søren Dinesen Østergaard fået adskillige henvendelser fra brugere af AI-chatbots og især pårørende, der har bekræftet ham i, at AI-chatbots formentlig kan være til stor fare for psykisk sårbare mennesker. 

Flere internationale medier har de seneste måneder også rapporteret om personer, der efter længere og intensiv brug af AI-chatbots tilsyneladende har fået alvorlige vrangforestillinger – i nogle tilfælde med fatale konsekvenser.

Søren Dinesen Østergaard ser derfor et stort og akut behov for forskning på området, og i en nyligt publiceret videnskabelig leder peger han på tre spor. 

Det første spor handler om at skaffe dokumentation gennem case reports fra klinisk praksis. Her skal fagfolk – med patienternes samtykke – beskrive tilfælde, hvor vrangforestillinger er opstået eller forværret i forbindelse med brug af AI-chatbots. 

”Vi er nødt til at komme ud over historier fra pressen og få solide kliniske beskrivelser fra professionelle, der kan lave de nødvendige kliniske undersøgelser og vurdere psykopatologien og dens sammenhæng med brugen af AI-chatbots,” forklarer Søren Dinesen Østergaard.

Det andet spor skal bygge på kvalitative interviews med patienter, der har oplevet at få vrangforestillinger i forbindelse med brug af AI-chatbots. Det skal give dybere indsigt i de subjektive oplevelser og hjælpe forskerne med at stille hypoteser om de tilgrundliggende mekanismer.

Det tredje og mest ambitiøse spor er eksperimentel forskning, hvor man måler, hvad der sker med tanker, stemningsleje og hjerneaktivitet, når frivillige forsøgspersoner interagerer med AI-chatbots. Det kan være med til at identificere de mekanismer, der er ansvarlige for, at vrangforestillinger opstår.

”Alle tre tilgange er nødvendige, fordi de belyser forskellige aspekter af problemet. Jeg håber selv at kunne bidrage til alle tre”, siger Søren Dinesen Østergaard 

Når chatbots forstærker vrangforestillinger

Historier i internationale medier har de seneste år tegnet et foruroligende billede. Rolling Stone skrev i juni 2024 om en 35-årig mand med alvorlig psykisk sygdom, der mente at være kommet i kontakt med et bevidst væsen ’Juliet’ på ChatGPT. 

Da han siden fik indtryk af, at firmaet bag AI-chatbotten havde fjernet hans adgang til hende, fik hans efterfølgende handlinger fatale konsekvenser. 

Wall Street Journal rapporterede i august 2025 om en 56-årig mand med tidligere psykisk sygdom, der gennem langvarige samtaler med ChatGPT udviklede paranoide forestillinger om, at personer i hans omgivelser konspirerede imod ham. AI-chatbotten, som han kaldte 'Bobby', synes at have forstærket hans vrangforestillinger ved at bekræfte dem i stedet for at udfordre dem. Dette forløb fik også en fatal udgang.

Fælles for mange af historierne er, at samtalerne startede relativt harmløst, men gradvist udviklede sig svært problematisk. 

”Disse to eksempler er nok de mest alvorlige, der er rapporteret i pressen, og heldigvis kommer det kun meget sjældent så vidt. Der er dog mange, mange flere beretninger om vrangforestillinger af mindre alvorlig karakter, hvor interaktion med AI-chatbots også synes at have spillet en markant rolle. Vi kan som sagt ikke være helt sikre på, at der er tale om en årsagssammenhæng, men der er vældig mange indicier, der peger i den retning”, siger Søren Dinesen Østergaard.

Optimeret til at bekræfte brugeren

Han og andre peger på et specifikt aspekt ved måden, AI-chatbots er udviklet på, som er særligt problematisk i forhold til risikoen for vrangforestillinger.

”AI-chatbots er optimeret ud fra brugerfeedback. Som resultat har de fået en uheldig tendens til at bekræfte og rose brugerne – næsten uanset hvad brugerne præsenterer dem for. Det er ret oplagt, at det er uhensigtsmæssigt, hvis man er ved at udvikle en vrangforestilling og – i modsætning til at blive bekræftet – har brug for at blive korrigeret og guidet tilbage til virkeligheden.”

Derfor advarer Søren Dinesen Østergaard folk, der har problemer med deres psykiske helbred eller er arveligt disponeret for psykisk sygdom, om at være meget forsigtige med at bruge AI-chatbots.

Behov for regulering

Søren Dinesen Østergaard påpeger, at det nu er forskningens opgave at erstatte mavefornemmelser og indicier med evidens. 

”Vi står med en teknologi, der udvikler sig enormt hurtigt. Det understreger vigtigheden af, at forskningen kommer i gang med det samme,” siger han og tilføjer: 

”Det haster lige så meget, at vi stiller øgede krav om brugersikkerhed til de virksomheder, der udvikler AI-chatbots. Lige nu er det Det Vilde Vesten, og det går tydeligvis ikke.” 

Søren Dinesen Østergaards betragtninger om emnet er for nylig dækket mere indgående i en podcast i Jyllands-Posten.

 

Kontakt

Professor Søren Dinesen Østergaard
Aarhus Universitet, Institut for Klinisk Medicin
Telefon: 61282753
Mail: sdo@clin.au.dk