Ny forskning: AI-chatbots kan formentlig forværre psykisk sygdom

Et nyt studie fra Aarhus Universitet og Aarhus Universitetshospital viser, at brug af AI-chatbots som ChatGPT sandsynligvis kan have alvorlige negative konsekvenser for mennesker med psykisk sygdom. Forskerne opfordrer til øget opmærksomhed blandt behandlere og efterlyser regulering.

AI-chatbots' psykofantiske tilbøjeligheder risikerer at forstærke vrangforestillinger hos psykisk syge, vurderer professor Søren Dinesen Østergaard. Foto: AU Foto

Mennesker med psykisk sygdom, der bruger AI-chatbots, risikerer at opleve sygdomsforværring. Det viser et nyt studie, der netop er publiceret i det internationale tidsskrift Acta Psychiatrica Scandinavica. 

Forskerne har screenet journaler fra knap 54.000 patienter med psykisk sygdom og fundet flere tilfælde, hvor brugen af AI-chatbots ser ud til at have haft negative konsekvenser – primært i form af forværrede vrangforestillinger, men også potentiel forværring af mani, selvmordstanker og spiseforstyrrelse. 

”Det underbygger vores hypotese om, at brug af AI-chatbots kan have markante negative konsekvenser for folk med psykisk sygdom, siger professor Søren Dinesen Østergaard fra Aarhus Universitet og Aarhus Universitetshospital, der leder forskningsgruppen bag studiet. 

Chatbots bekræfter vrangforestillinger

Forskerne fandt i gennemgangen af patientjournalerne bl.a. eksempler på vrangforestillinger, der sandsynligvis blev forværret i forbindelse med patienternes interaktion med AI-chatbots. 

Og det er der ifølge Søren Dinesen Østergaard en logisk forklaring på. 

”AI-chatbots har en indbygget tendens til at bekræfte brugeren. Det er oplagt, at det er meget uhensigtsmæssigt, hvis en bruger har en vrangforestilling eller er ved at udvikle en. Det ser ud til, at det bidrager markant til konsolideringen af for eksempel megalomane eller paranoide forestillinger,” siger han.

Risikabelt for mennesker med svær psykisk sygdom

Studiet bør ifølge Søren Dinesen Østergaard give anledning til øget opmærksomhed blandt sundhedsfagligt personale, der arbejder med psykisk sygdom. De bør ifølge professoren tale med deres patienter om brugen af AI-chatbots. 

”Til trods for, at vores viden om dette stadig er sparsom, vil jeg mene, at det er rimeligt at sige, at det er risikabelt at anvende AI-chatbots, hvis man har svær psykisk sygdom – for eksempel skizofreni eller bipolar sygdom. Her vil jeg mane til forsigtighed,” siger han.

Kun toppen af isbjerget

Studiet viser en klar stigning over tid i antallet af journalnotater, der omtaler brug af AI-chatbots med potentielt skadelige konsekvenser. Søren Dinesen Østergaard forventer, at man vil opdage mange flere tilfælde fremover. 

”En del af den stigning, vi observerer, skyldes formentlig øget opmærksomhed på teknologien fra sundhedspersonalet, der skriver i journalen. Det er godt - for jeg er bange for, at problemet er omfattende. I studiet ser vi kun toppen af isbjerget, for vi har kun kunnet finde de tilfælde, der er beskrevet i patientjournalerne. Der er formentlig langt flere,” siger han. 

Forskerne understreger dog, at studiet ikke dokumenterer en direkte årsagssammenhæng. 

”Det er svært at bevise en årsagssammenhæng mellem brug af AI-chatbots og negative psykologiske konsekvenser. Det skal undersøges fra mange forskellige vinkler og jeg ved, at der er mange spændende internationale forskningsprojekter i gang. Vi er langtfra den eneste forskningsgruppe, der tager dette alvorligt, siger Søren Dinesen Østergaard. 

AI-chatbots som terapi? 

Studiet viser også, at nogle patienter med psykisk sygdom bruger AI-chatbots på en måde, der muligvis kan være konstruktiv. For eksempel til at forstå deres symptomer eller mod ensomhed. Der forskes også i, om specialtrænede AI-chatbots kan bruges til samtaleterapi. 

Søren Dinesen Østergaard er dog skeptisk.

”Det er muligt, at der er potentiale i forhold til psykoedukation og psykoterapi, men det skal undersøges i kontrollerede forsøg med samme grundighed som ved andre behandlingsformer. Jeg er absolut ikke imponeret over de forsøg, der er foretaget indtil videre - og er fundamentalt skeptisk i forhold til at erstatte en uddannet psykoterapeut med en AI-chatbot,” siger han.

Behov for regulering

Ifølge Søren Dinesen Østergaard er der en markant mangel på reguleringen af AI-chatbot området. 

”Aktuelt er det op til virksomhederne selv at beslutte, om deres produkter er sikre nok for brugerne. Jeg synes, at vi nu har tilstrækkelig viden til at kunne konstatere, at den model slet ikke fungerer. Der skal reguleres fra centralt hold,” påpeger han og fortsætter:

”Det er 20 år siden, at de sociale medier gjorde deres globale indtog og først nu tager vi for alvor fat med regulering for at modvirke de negative konsekvenser de har – primært på den psykiske trivsel for børn og unge. Som jeg ser det, er denne historie ved at gentage sig selv med AI-chatbots,” advarer han.  

 

Fakta om studiet: 

  • Journaler fra patienter i Psykiatrien i Region Midtjylland i perioden fra september 2022 til juni 2025 blev screenet for ord som ”chatbot og ”ChatGPT”
  • Hos 38 patienter var brugen af AI-chatbots forenelig med negative konsekvenser for den psykiske sygdom
  • De hyppigste negative konsekvenser sås hos patienter med vrangforestillinger, selvmordstanker og spiseforstyrrelse 

 

Bag om forskningsresultatet

 

Kontakt

Professor Søren Dinesen Østergaard
Institut for Klinisk Medicin, Aarhus Universitet
Aarhus Universitetshospital - Psykiatrien
Mail: sdo@clin.au.dk
Telefon: 61282753