Ein ChatGPT-Nutzer hat offenbar in seinem Chat-Verlauf private Unterhaltungen anderer Benutzer entdeckt, einschließlich Login-Daten und persönlichen Informationen.

In einem kürzlichen Vorfall erhielt ein ChatGPT-Nutzer u.a. Zugriff auf sensible Konversationsinhalte anderer Nutzer, ohne dass dies von ihm beabsichtigt war. Dies wirft erneut Fragen zur Datensicherheit bei der Nutzung von KI-basierten Chatbots auf.

ChatGPT-Nutzer mit unerwartetem Datenzugriff

Ein ChatGPT-Nutzer namens Whiteside stieß in seinem Profil auf Konversationsinhalte, die nicht von ihm stammten. Ursprünglich beabsichtigte er lediglich, ChatGPT für kreative Ideen zur Benennung von Farben in einer Palette zu nutzen. Stattdessen wurden ihm Gespräche angezeigt, die sensible Informationen anderer Anwender enthielten. Dazu gehörten unveröffentlichte Forschungsarbeiten, Präsentationen, PHP-Skripte sowie persönliche Anmeldeinformationen. Ars Technica, eine renommierte Technologie-Website, bestätigte diese Behauptungen mit mehreren Screenshots.

Zu den Informationen zählten so offenbar auch Benutzernamen und Passwörter, die wohl mit einem Supportsystem eines Apothekenportals für verschreibungspflichtige Medikamente in Verbindung standen. Ein Mitarbeiter nutzte den KI-Chatbot scheinbar, um Probleme beim Zugriff auf das Portal zu lösen. Neben den Anmeldeinformationen wurden so laut Meldungen auch der Name der betroffenen Anwendung und die Nummer der Filiale sichtbar, in der das Problem aufgetreten war.

Facebook Daten geleakt!

Checken Sie kostenlos, ob Sie betroffen sind.
Bis zu 1.000€ Schadensersatz.

Soforthilfe vom Anwalt

Sie brauchen rechtliche Beratung? Rufen Sie uns an für eine kostenlose Ersteinschätzung oder nutzen Sie unser Kontaktformular.

Weiterhin konnte der Nutzer Whiteside auf andere Unterhaltungen zugreifen, die Informationen über Präsentationen, Forschungsunterlagen und Softwareprojekte enthielten. Laut Medien schienen die Nutzer der einzelnen Gespräche unabhängig voneinander zu sein und keine Verbindung untereinander zu haben.

OpenAI reagiert

OpenAI, das Unternehmen hinter ChatGPT, hat laut eigener Aussage mit einer Untersuchung des Vorfalls begonnen. Dies war allerdings nicht der erste Zwischenfall. Bereits im März 2023 behob OpenAI einen Fehler, der Nutzern Titel von Konversationen anderer Nutzer anzeigte, ohne jedoch Zugriff auf detaillierte Inhalte zu ermöglichen. Im vergangenen Jahr demonstrierten Forscher zudem, wie Trainingsdaten, einschließlich persönlicher Informationen, aus dem Chatbot extrahiert werden konnten.

akl