En ny studie visar en kraftig minskning av användningen av medicinska ansvarsfriskrivningar i AI, vilket väcker stora farhågor om användarnas förtroende och säkerhet. Allt fler vänder sig till chatbots för hälsorelaterade frågor, men varningar om AI-rådets begränsningar försvinner tyst.

Forskare är oroliga för att denna förändring kan vilseleda användare att lita på AI-genererade svar vid allvarliga tillstånd som cancer, ätstörningar och läkemedelsinteraktioner.

Ansvarsfriskrivningar försvinner

Under 2023 gav AI-modeller ofta medicinska ansvarsfriskrivningar. De kunde säga saker som ”Jag är ingen läkare” eller ”Konsultera en medicinsk expert.” Så är det inte längre.

Enligt Sonali Sharma, Fulbright-stipendiat vid Stanford, är ansvarsfriskrivningar nu sällsynta. Hon testade 15 AI-modeller, inklusive verktyg från OpenAI, Anthropic, Google, DeepSeek och xAI.

Hennes resultat:

  • 2022 innehöll 26 % av medicinska svar en ansvarsfriskrivning
  • 2024 sjönk det till under 1 %
  • Vid medicinsk bildanalys minskade varningarna från 20 % till drygt 1 %

Vilka frågor triggar AI-råd?

Sharma testade modellerna med:

  • 500 hälsorelaterade frågor (t.ex. läkemedelsinteraktioner)
  • 1 500 medicinska bilder (t.ex. röntgen av bröstkorg, mammografi)

AI-svaren undvek ofta ansvarsfriskrivningar – även vid akuta ämnen, läkemedelssäkerhet och laboratorietester. Överraskande nog var ansvarsfriskrivningar vanligare vid frågor om mental hälsa, troligen på grund av rättsliga påtryckningar.

Varför försvinner varningarna?

Experter misstänker att förändringen är avsiktlig. Enligt MIT-forskaren Pat Pataranutaporn kan AI-företag ta bort ansvarsfriskrivningar för att öka användarnas förtroende – även om det är ogrundat.

”Folk litar mer på svaren om de inte ser en ansvarsfriskrivning,” förklarar Pataranutaporn.

Men det är riskabelt. Medförfattaren Roxana Daneshjou varnar för att människor kan tro att AI är mer korrekt än det faktiskt är – särskilt när medier hävdar att AI kan mäta sig med läkare.

Företagen håller sig vaga

  • OpenAI bekräftade inte om ansvarsfriskrivningar togs bort medvetet
  • Anthropic säger att deras Claude-modell undviker medicinska råd
  • DeepSeek och xAI:s Grok inkluderar enligt rapporter inga varningar – särskilt vid medicinsk bildanalys

Smartare svar, färre varningar?

Ironiskt nog, ju mer exakt en AI-modell var, desto mindre sannolikt lade den till en varning. Forskarna tror att modeller kan bedöma sin egen säkerhet och hoppa över ansvarsfriskrivningen om de känner sig säkra.

Men även utvecklare är överens: säkerhet är inte samma sak som pålitlighet.

När AI blir bättre på att låta auktoritativ blir det svårare för användare att veta vad de kan lita på.

Slutsats

Att ansvarsfriskrivningarna för medicinska AI-svar minskar kan verka subtilt – men det medför stora risker. När AI blir mer självsäker och realistisk är varningar viktigare än någonsin. Utan dem kan användare missta flytande svar för korrekta – och det är en farlig illusion när hälsan står på spel.


0 svar till ”AI:s borttagning av medicinska ansvarsfriskrivningar väcker säkerhetsoro i hälsosamtal”