Eine neue Studie zeigt einen deutlichen Rückgang bei der Verwendung von medizinischen Haftungsausschlüssen in KI-Systemen, was erhebliche Bedenken hinsichtlich des Nutzervertrauens und der Sicherheit aufwirft. Da immer mehr Menschen Chatbots für Gesundheitsfragen nutzen, verschwinden Warnhinweise über die Grenzen von KI-Ratschlägen zunehmend unbemerkt.
Forscher befürchten, dass diese Entwicklung Nutzer in die Irre führen könnte, indem sie sich bei ernsten Erkrankungen wie Krebs, Essstörungen und Wechselwirkungen von Medikamenten auf KI-generierte Antworten verlassen.
Haftungsausschlüsse verschwinden
Im Jahr 2023 gaben KI-Modelle häufig medizinische Haftungsausschlüsse ab. Sie sagten Dinge wie „Ich bin kein Arzt“ oder „Konsultieren Sie einen medizinischen Fachmann“. Das ist heute nicht mehr üblich.
Laut Sonali Sharma, einer Fulbright-Stipendiatin an der Stanford University, sind Haftungsausschlüsse heute selten. Sie testete 15 KI-Modelle, darunter Werkzeuge von OpenAI, Anthropic, Google, DeepSeek und xAI.
Ihre Ergebnisse:
- 2022 enthielten 26 % der medizinischen Antworten einen Haftungsausschluss
- 2024 sank diese Zahl auf unter 1 %
- Bei der Analyse medizinischer Bilder gingen Warnhinweise von 20 % auf etwas über 1 % zurück
Welche Fragen lösen KI-Ratschläge aus?
Sharma testete die Modelle mit:
- 500 gesundheitsbezogenen Fragen (z. B. Medikamentenwechselwirkungen)
- 1.500 medizinischen Bildern (z. B. Röntgenaufnahmen der Brust, Mammografien)
KI-Antworten übersprangen oft Haftungsausschlüsse – selbst bei Notfallthemen, Medikamentensicherheit und Laboruntersuchungen. Überraschenderweise waren Haftungsausschlüsse bei psychischen Gesundheitsfragen häufiger – vermutlich wegen rechtlicher Konsequenzen früherer Ratschläge.
Warum verschwinden die Warnungen?
Experten vermuten, dass die Änderung absichtlich erfolgt. Laut MIT-Forscher Pat Pataranutaporn entfernen KI-Unternehmen möglicherweise Haftungsausschlüsse, um das Nutzervertrauen zu erhöhen – auch wenn dieses Vertrauen unbegründet ist.
„Menschen vertrauen den Antworten mehr, wenn sie keinen Haftungsausschluss sehen“, erklärt Pataranutaporn.
Doch das ist riskant. Mitautorin Roxana Daneshjou warnt, dass Nutzer die KI für genauer halten könnten, als sie tatsächlich ist – insbesondere wenn die Medien sie als Konkurrenz zu Ärzten darstellen.
Unternehmen bleiben vage
- OpenAI äußerte sich nicht dazu, ob Haftungsausschlüsse absichtlich entfernt wurden
- Anthropic gibt an, dass sein Modell Claude keine medizinischen Ratschläge erteilt
- DeepSeek und xAI’s Grok sollen angeblich keine Warnungen anzeigen – vor allem bei der medizinischen Bildanalyse
Klügere Antworten, weniger Warnungen?
Ironischerweise war eine KI umso weniger geneigt, eine Warnung hinzuzufügen, je genauer sie war. Forscher glauben, dass Modelle ihre eigene Sicherheit einschätzen und einen Haftungsausschluss überspringen, wenn sie sich sicher fühlen.
Doch selbst Entwickler stimmen zu: Sicherheit bedeutet nicht Verlässlichkeit.
Je besser KI autoritativ klingt, desto schwerer fällt es Nutzern zu erkennen, was vertrauenswürdig ist.
Fazit
Das Verschwinden des medizinischen Haftungsausschlusses bei KI mag subtil erscheinen – birgt aber große Risiken. Da KI immer selbstbewusster und realistischer wird, sind Warnhinweise wichtiger denn je. Ohne sie könnten Nutzer flüssige Antworten mit korrekten verwechseln – und das ist eine gefährliche Illusion, wenn es um Gesundheit geht.


0 Kommentare zu „Entfernung medizinischer Haftungsausschlüsse bei KI sorgt für Sicherheitsbedenken in Gesundheitsgesprächen“