Edgar Cervantes / Android Authority
TL;DR
- Ein Bericht legt nahe, dass ChatGPT private Gespräche an unabhängige Personen weitergegeben hat.
- Diese Gespräche beinhalten viele sensible Details, wie Benutzernamen und Passwörter, unveröffentlichte Werke und mehr.
- OpenAI untersucht den Bericht.
ChatGPT ist zu einem wichtigen Bestandteil unseres Workflows geworden und ersetzt bei vielen Suchanfragen oft sogar die google-Suche. Viele von uns verwenden es für einfachere Abfragen, aber mit Hilfe von ChatGPT-Plugins und ChatGPT-Erweiterungen können Sie KI für komplexere Aufgaben verwenden. Wir empfehlen jedoch, vorsichtig zu sein, wofür Sie ChatGPT verwenden und welche Daten Sie damit teilen, da Benutzer berichtet haben, dass ChatGPT einige private Gespräche durchsickern ließ.
Laut einem Bericht von ArsTechnicaUnter Berufung auf Screenshots, die von einem ihrer Leser eingesandt wurden, gibt ChatGPT private Gespräche preis, darunter auch Details wie Benutzernamen und Passwörter. Der Leser hatte ChatGPT für eine unabhängige Abfrage verwendet und dabei seltsamerweise zusätzliche Konversationen in seinem Chatverlauf entdeckt, die ihm nicht gehörten.
Diese Gespräche mit Außenstehenden beinhalteten mehrere Details. Eine Reihe von Gesprächen stammte von jemandem, der versuchte, Probleme über ein Supportsystem zu beheben, das von Mitarbeitern eines Portals für verschreibungspflichtige Medikamente in der Apotheke verwendet wurde, und enthielt den Namen der App, die der Außenstehende zu beheben versuchte, die Filialnummer, in der das Problem auftrat, usw zusätzliche Anmeldedaten.
Eine weitere durchgesickerte Konversation enthielt den Namen der Präsentation, an der jemand arbeitete, sowie Details zu einem unveröffentlichten Forschungsvorschlag.
Dies ist nicht das erste Mal, dass ChatGPT Informationen preisgibt. ArsTechnica stellt fest, dass ChatGPT im März 2023 einen Fehler hatte, der Chat-Titel durchsickerte, während Forscher im November 2023 mithilfe von Abfragen den KI-Bot dazu veranlassen konnten, viele private Daten preiszugeben, die beim Training des LLM verwendet wurden.
OpenAI erwähnt ArsTechnica dass das Unternehmen den Bericht untersuchte. Unabhängig vom Ergebnis der Untersuchungen raten wir davon ab, sensible Informationen an einen KI-Bot weiterzugeben, insbesondere an einen, den Sie nicht erstellt haben.