Das ist nicht großartig, Leute!
Ticketnehmer
Es sieht so aus, als ob chatgpt Benutzerdaten an unabhängige Parteien weitergibt – und es ist bei weitem nicht das erste Mal, dass so etwas passiert.
Als Ars Technica Berichte Basierend auf beunruhigenden Leseraussagen scheint der Chatbot nach dem Zufallsprinzip private und unabhängige Benutzergespräche preiszugeben, darunter Apothekenbenutzertickets und Codefragmente, die identifizierende Anmeldeinformationen für zahlreiche Websites enthalten.
Der Leser, Chase Whiteside, erklärte es Ars dass sie ChatGPT verwendet hatten, um „clevere Namen für Farben in einer Palette“ zu finden, und offenbar den Bildschirm verlassen hatten. Als sie es erneut öffneten, gab es auf der linken Seite mehr Gespräche als ursprünglich, von denen keines von ihnen selbst initiiert worden war.
Von den Gesprächen, an die der Leser Screenshots gemacht und gesendet hat Ars, einschließlich einer Präsentationserstellungsbörse und etwas PHP-Code, schien eines davon Fehlerbehebungstickets vom oben genannten Apothekenportal zu enthalten. Noch seltsamer ist, dass der Text der scheinbaren Tickets darauf hindeutet, dass sie in den Jahren 2020 und 2021 initiiert wurden, bevor ChatGPT überhaupt gestartet wurde.
Durchgesickert und geladen
Die Website hat die inkongruenten Daten nicht erklärt, aber es besteht eine Wahrscheinlichkeit ungleich Null, dass es sich um Teil ihrer Trainingsdaten handeln könnte. Tatsächlich wurde der ChatGPT-Hersteller OpenAI letztes Jahr von einem Problem getroffen massive Sammelklage behauptet, dass das Unternehmen heimlich genutzte Bestände medizinischer Daten und andere persönliche Informationen, um seine großen Sprachmodelle (LLMs) zu trainieren.
In seiner weniger als 18-monatigen Geschichte wurde ChatGPT mehrfach beschuldigt, ein undichter Wasserhahn zu sein. Im März 2023, OpenAI musste zugeben dass ein Fehler dazu geführt hatte, dass der Chatbot einigen Benutzern die Gespräche der anderen zeigte, und im Dezember teilte das Unternehmen mit habe einen Patch herausgebracht um ein weiteres Problem zu beheben, das Benutzerdaten an unbefugte Dritte weitergeben könnte.
Und gegen Ende des Jahres 2023 google-Forscher haben herausgefunden dass ChatGPT durch die Verwendung bestimmter „Angriffs“-Aufforderungen oder Schlüsselwörter, die den Chatbot dazu veranlassen, das zu tun, was er nicht tun soll, riesige Teile seiner Trainingsdaten offenlegen würde.
Derzeit gibt es keine wirkliche Erklärung dafür, was Whiteside mitgeteilt hat ArsUnd Futurismus hat sich an OpenAI gewandt und gefragt, was dort möglicherweise vor sich gegangen ist.
Zumindest erinnert es uns jedoch an das alte Sprichwort zur Betriebssicherheit: Geben Sie nichts in ChatGPT oder ein anderes Programm ein, das ein Fremder nicht sehen soll.
Mehr zu OpenAI: OpenAI veröffentlicht einen Patch, um die angebliche Faulheit von GPT-4 zu beheben