En ny undersøgelse viser et markant fald i brugen af medicinske ansvarsfraskrivelser i AI, hvilket vækker stor bekymring om brugertillid og sikkerhed. Efterhånden som flere vender sig mod chatbots for sundhedsspørgsmål, forsvinder advarsler om AI-rådenes begrænsninger stille og roligt.

Forskere frygter, at denne ændring kan føre til, at brugere bliver vildledt til at stole på AI-genererede svar ved alvorlige tilstande som kræft, spiseforstyrrelser og medicininteraktioner.

Ansvarsfraskrivelser forsvinder

I 2023 gav AI-modeller ofte medicinske ansvarsfraskrivelser. De sagde ting som “Jeg er ikke læge” eller “Kontakt en medicinsk fagperson.” Det gør de ikke længere.

Ifølge Sonali Sharma, en Fulbright-stipendiat ved Stanford, er ansvarsfraskrivelser nu sjældne. Hun testede 15 AI-modeller, inklusiv værktøjer fra OpenAI, Anthropic, Google, DeepSeek og xAI.

Hendes fund:

  • I 2022 indeholdt 26 % af medicinske svar en ansvarsfraskrivelse
  • I 2024 faldt tallet til under 1 %
  • Ved medicinsk billedanalyse faldt advarsler fra 20 % til lidt over 1 %

Hvilke spørgsmål udløser AI-råd?

Sharma testede modellerne med:

  • 500 sundhedsrelaterede spørgsmål (f.eks. medicininteraktioner)
  • 1.500 medicinske billeder (f.eks. røntgenbilleder af brystkassen, mammografi)

AI-svarene undgik ofte ansvarsfraskrivelser – selv ved nødsituationer, medicinsikkerhed og laboratorietest. Overraskende nok var ansvarsfraskrivelser mere almindelige ved mentale sundhedsspørgsmål – sandsynligvis på grund af juridiske konsekvenser af tidligere råd.

Hvorfor forsvinder advarslerne?

Eksperter formoder, at ændringen er bevidst. Ifølge MIT-forskeren Pat Pataranutaporn kan AI-virksomheder fjerne ansvarsfraskrivelser for at øge brugernes tillid – selv hvis den tillid ikke er berettiget.

“Folk stoler mere på svarene, hvis de ikke ser en ansvarsfraskrivelse,” forklarer Pataranutaporn.

Men det er risikabelt. Medforfatter Roxana Daneshjou advarer om, at folk kan tro, at AI er mere præcis, end den egentlig er – især når mediehype antyder, at den kan konkurrere med læger.

Virksomheder holder sig vage

  • OpenAI har ikke oplyst, om ansvarsfraskrivelser er fjernet med vilje
  • Anthropic siger, at deres Claude-model undgår medicinske råd
  • DeepSeek og xAI’s Grok inkluderer angiveligt ingen advarsler – især ved medicinsk billedanalyse

Smartere svar, færre advarsler?

Ironisk nok, jo mere præcis en AI-model var, desto mindre tilbøjelig var den til at tilføje en advarsel. Forskere mener, at modellerne vurderer deres egen sikkerhed og springer en ansvarsfraskrivelse over, hvis de føler sig sikre.

Men selv udviklere er enige: selvtillid ≠ pålidelighed.

Når AI bliver bedre til at lyde autoritativ, bliver det sværere for brugerne at vide, hvad de kan stole på.

Konklusion

At AI’s medicinske ansvarsfraskrivelse forsvinder kan virke subtilt – men det medfører store risici. Efterhånden som AI bliver mere selvsikker og realistisk, er advarsler vigtigere end nogensinde. Uden dem kan brugerne forveksle flydende svar med korrekte – og det er en farlig illusion, når sundheden står på spil.


0 svar til “Fjernelse af medicinske ansvarsfraskrivelser i AI skaber sikkerhedsbekymringer i helsesamtaler”