Ein neuer Tag, ein weiteres chatgpt-Datenleck.
Diesmal handelte es sich um Zugangsdaten und persönliche Daten eines Apothekenkunden auf einem Portal für verschreibungspflichtige Medikamente. Entsprechend Ars Technicaein Benutzer namens Chase Whiteside, erhielt unabsichtlich diese Gesprächsabschnitte als Antwort auf eine nicht damit zusammenhängende Anfrage und übermittelte sie an die Tech-Site.
OpenAI veröffentlicht einen ChatGPT-Datenleck-Patch, das Problem ist jedoch nicht vollständig behoben
„Ich wollte eine Anfrage stellen (in diesem Fall Hilfe bei der Suche nach cleveren Namen für Farben in einer Palette)“, schrieb Whiteside in einer E-Mail. „Als ich wenige Augenblicke später zu Access zurückkehrte, fielen mir die zusätzlichen Gespräche auf.“
Die Gespräche scheinen von einem frustrierten Mitarbeiter zu stammen, der Probleme mit einer von der Apotheke verwendeten App (Name geschwärzt von Ars Technica) behebt. Neben dem gesamten Text, in dem die App verunglimpft wurde, enthielt das Leck auch den Benutzernamen, das Passwort eines Kunden und die Geschäftsnummer des Mitarbeiters. Es ist unklar, ob dies der Fall ist, aber es sieht so aus, als ob das gesamte Feedback-Ticket in der ChatGPT-Antwort enthalten war.
Dies ist nicht das erste Mal, dass ChatGPT Sicherheitsprobleme hat. Hacker und Forscher haben Schwachstellen entdeckt, die es ihnen ermöglichen, vertrauliche Informationen zu extrahieren, entweder durch sofortige Injektion oder durch Jailbreaking.
Im vergangenen März wurde ein Fehler entdeckt, der die Zahlungsinformationen von ChatGPT Plus-Benutzern preisgab. Obwohl OpenAI bestimmte Probleme im Zusammenhang mit ChatGPT-Benutzern behoben hat, bietet es keinen Schutz vor persönlichen oder vertraulichen Informationen, die mit ChatGPT geteilt werden. Dies war der Fall, als Samsung-Mitarbeiter, die ChatGPT zur Codeunterstützung nutzten, versehentlich Unternehmensgeheimnisse preisgaben. Aus diesem Grund haben viele Unternehmen die Nutzung von ChatGPT verboten.
Dies scheint hier passiert zu sein, aber OpenAI ist nicht aus dem Schneider. Laut seiner DatenschutzrichtlinieDie eingegebenen Daten sollen anonymisiert und von jeglichen persönlich identifizierbaren Informationen befreit werden. Da die Hersteller selbst nicht immer genau bestimmen können, was zu bestimmten Ergebnissen führt, unterstreicht dieses Leck die inhärenten Risiken von LLMs.
Wir sagen es noch einmal: Geben Sie keine sensiblen oder persönlichen Daten – insbesondere wenn es nicht Ihre eigenen sind – an ChatGPT weiter.
Themen Künstliche Intelligenz ChatGPT