Ein Datenleck bei Meta AI hat eine gravierende Schwachstelle im Chatbot-System des Unternehmens offengelegt. Für kurze Zeit konnten Nutzer die Eingaben und KI-generierten Antworten anderer Personen einsehen – verursacht durch eine unsichere Backend-Schwachstelle.

Meta hat das Problem inzwischen behoben. Doch Cybersicherheitsexperten sehen in diesem Vorfall eine deutliche Warnung an alle Unternehmen, die KI-Chatbots anbieten.

Wie die Schwachstelle funktionierte

Sandeep Hodkasia, Gründer der Sicherheitsfirma AppSecure, entdeckte die Lücke im Dezember 2024. Während er mit der Funktion zur Generierung neuer Prompts von Meta AI experimentierte, analysierte er den Netzwerkverkehr und stieß auf eine Auffälligkeit.

Wenn ein Nutzer einen Prompt änderte, vergab Metas Backend eine eindeutige Nummer – die allerdings leicht zu erraten war. Durch simples Verändern dieser Nummer konnte Hodkasia auf fremde Daten zugreifen – inklusive Prompt und Antwort.

Das System prüfte nicht, ob der Anfragende überhaupt berechtigt war, diese Informationen zu sehen.

Reaktion von Meta

Hodkasia meldete die Schwachstelle verantwortungsvoll am 26. Dezember an Meta. Der Konzern schloss die Lücke bis zum 24. Januar und zahlte ihm eine Bug-Bounty-Prämie von 10.000 US-Dollar.

Ein Meta-Sprecher bestätigte die Behebung und erklärte, es gebe keine Hinweise auf einen Missbrauch der Lücke. Dennoch dauerte die Schwachstelle lange genug an, um Fragen zur internen Qualitätskontrolle und den Schutzmaßnahmen für Nutzer zu werfen.

Zweiter Datenschutz-Vorfall innerhalb weniger Wochen

Es war nicht der einzige Vorfall. Einige Wochen zuvor wurde bekannt, dass Meta AI versehentlich private Chatbot-Konversationen in öffentliche Feeds posten konnte. Meta reagierte mit einem Warnhinweis, der Nutzer darauf aufmerksam macht, wenn Inhalte veröffentlicht werden sollen.

Die beiden Vorfälle in Folge deuten darauf hin, dass Meta stärkere Datenschutzprotokolle für seine KI-Dienste benötigt.

Fazit

Das Meta AI-Leck zeigt, wie empfindlich Datenschutz im Zeitalter von KI ist. Eine einfache Backend-Panne reichte aus, um vertrauliche Unterhaltungen offenzulegen, die Nutzer für sicher hielten. Mit zunehmender Integration von KI in unseren Alltag müssen Unternehmen sicherstellen, dass Nutzerdaten privat bleiben – egal wie schnell sich die Technologie entwickelt.


0 Antworten zu „Meta AI-läcka avslöjade privata promptar på grund av säkerhetsbugg“