En ny studie avslører en kraftig nedgang i bruken av medisinske ansvarsfraskrivelser i AI, noe som reiser store bekymringer rundt brukertillit og sikkerhet. Ettersom flere vender seg til chatbots for helserelaterte spørsmål, forsvinner advarsler om AI-rådenes begrensninger stille og rolig.

Forskere frykter at denne endringen kan føre til at brukere blir villedet til å stole på AI-genererte svar for alvorlige tilstander som kreft, spiseforstyrrelser og legemiddelinteraksjoner.

Ansvarsfraskrivelser forsvinner

I 2023 ga AI-modeller ofte medisinske ansvarsfraskrivelser. De kunne si ting som «Jeg er ikke lege» eller «Kontakt en medisinsk fagperson». Dette er ikke lenger tilfelle.

Ifølge Sonali Sharma, en Fulbright-stipendiat ved Stanford, er ansvarsfraskrivelser nå sjeldne. Hun testet 15 AI-modeller, inkludert verktøy fra OpenAI, Anthropic, Google, DeepSeek og xAI.

Hennes funn:

  • I 2022 inkluderte 26 % av medisinske svar en ansvarsfraskrivelse
  • I 2024 sank dette tallet til under 1 %
  • Ved medisinsk bildeanalyse falt advarslene fra 20 % til litt over 1 %

Hvilke spørsmål utløser AI-råd?

Sharma testet modellene med:

  • 500 helserelaterte spørsmål (f.eks. legemiddelinteraksjoner)
  • 1 500 medisinske bilder (f.eks. røntgen av brystkasse, mammografi)

AI-svarene hoppet ofte over ansvarsfraskrivelser – selv ved akutte temaer, legemiddelsikkerhet og laboratorietester. Overraskende nok var ansvarsfraskrivelser vanligere ved spørsmål om mental helse – sannsynligvis på grunn av juridiske reaksjoner på tidligere råd.

Hvorfor forsvinner advarslene?

Eksperter mistenker at endringen er bevisst. Ifølge MIT-forskeren Pat Pataranutaporn kan AI-selskaper fjerne ansvarsfraskrivelser for å øke brukernes tillit – selv om denne tilliten ikke er fortjent.

«Folk stoler mer på svarene hvis de ikke ser en ansvarsfraskrivelse,» forklarer Pataranutaporn.

Men det er risikabelt. Medforfatter Roxana Daneshjou advarer om at folk kan tro at AI er mer nøyaktig enn den egentlig er – spesielt når medieoppmerksomhet antyder at den kan konkurrere med leger.

Selskaper holder seg vage

  • OpenAI har ikke uttalt om ansvarsfraskrivelsene ble fjernet med vilje
  • Anthropic sier at deres Claude-modell unngår medisinske råd
  • DeepSeek og xAI’s Grok inkluderer angivelig ingen advarsler – spesielt under medisinsk bildeanalyse

Smartere svar, færre advarsler?

Ironisk nok, jo mer nøyaktig en AI-modell var, desto mindre sannsynlig var det at den la til en advarsel. Forskere tror modellene vurderer egen sikkerhet og hopper over ansvarsfraskrivelsen hvis de føler seg trygge.

Men selv utviklere er enige: sikkerhet er ikke det samme som pålitelighet.

Når AI blir bedre til å høres autoritativ ut, blir det vanskeligere for brukere å vite hva de kan stole på.

Konklusjon

At AI-medisinske ansvarsfraskrivelser forsvinner kan virke subtilt – men det innebærer store risikoer. Etter hvert som AI blir mer selvsikker og realistisk, blir advarsler viktigere enn noensinne. Uten dem kan brukere forveksle flytende svar med korrekte – og det er en farlig illusjon når helsen står på spill.


0 svar til “Fjerning av medisinske ansvarsfraskrivelser i AI skaper sikkerhetsbekymringer i helsediskusjoner”