[ad_1]
OpenAI, mitfinanziert von Microsoft, untersucht einen seltsamen Fall.Bild: Shutterstock
Aus den USA erreichen uns alarmierende Nachrichten: chatgpt hat angeblich private Passwörter an Dritte weitergegeben. Auch Namen unveröffentlichter Forschungsarbeiten, Präsentationen und PHP-Skripte sollen durchgesickert sein.
01.02.2024, 09:3601.02.2024, 11:31
Das amerikanische Technologie-Newsportal Ars Technica veröffentlichte in der Nacht von Montag auf Dienstag einen besorgniserregenden Artikel: ChatGPT zeigte angeblich vertrauliche Inhalte aus privaten Diskussionen an, die vom Konto eines ChatGPT-Drittbenutzers stammten.
Dies trotz der Tatsache, dass der betreffende Benutzer zuvor nicht versucht hat, den KI-Chatbot durch die Eingabe von Text zu einem Fehlverhalten zu verleiten.
Für Laien gilt: Wenn Sie mit ChatGPT chatten, geschieht dies über ein Chat-Portal (als ob Sie mit jemandem SMS austauschen würden). Anschließend können Sie die Chats vervielfachen, um beispielsweise Anfragen zu verschiedenen Themen zu stellen.
Der Zugriff auf Chats von Drittanbietern ist daher problematisch. Dieser Vorfall wirft viele Fragen auf.
Von welchen Lecks sprechen wir?
Entsprechend Ars TechnicaInsgesamt reichte ein Nutzer sieben Screenshots ein, von denen zwei als besonders problematisch galten. Dabei handelte es sich tatsächlich unter anderem um Benutzerdaten und Passwörter eines Online-Dienstes.
„Beide [captures d’écran] enthielt mehrere Paare aus Benutzernamen und Passwörtern, die offenbar mit einem Helpdesk-System verknüpft waren, das von Mitarbeitern eines Apothekenportals verwendet wurde, das verschreibungspflichtige Medikamente anbietet. Es scheint, dass ein Mitarbeiter den KI-Chatbot verwendet hat, um Probleme zu lösen, die bei der Nutzung des Portals aufgetreten sind.“
Dieser Screenshot zeigt, dass ChatGPT vertrauliche Informationen aus einem privaten Chat durchsickern ließ oder diese unbeabsichtigt an Dritte weitergab.Screenshot: Ars Technica
Diese unerwarteten Daten tauchten plötzlich am Montagmorgen auf, kurz nachdem der Benutzer ChatGPT „für eine Anfrage verwendet hatte, die nichts mit diesem Portal zu tun hatte“.
Der Benutzer, der diese Daten außerhalb seiner eigenen Chats entdeckt hat, erklärt:
„Ich habe eine Anfrage gestellt (in diesem Fall um Hilfe bei der Suche nach interessanten Namen für Farben in einer Palette) und als ich eine Weile später zum Chat zurückkam, bemerkte ich weitere Gespräche.“
Quelle: arstechnica.com
Diese Chats seien nicht vorhanden gewesen, als er am Vortag ChatGPT genutzt habe, erklärt der Nutzer. Er hätte auch keine Forderungen gestellt, die zu einem solchen Ergebnis hätten führen können. Die (unbekannten) Daten wurden in seinem ChatGPT-Verlauf (in der Seitenleiste) angezeigt und stammten definitiv nicht von ihm.
Zu den weiteren Nachrichten gehörten der Name einer Präsentation, an der jemand gearbeitet hatte, Einzelheiten zu einem unveröffentlichten Forschungsvorschlag und ein Skript, das die Programmiersprache PHP verwendete.
Die durchgesickerten Chats scheinen von mehreren Benutzerkonten zu stammen, die nichts miteinander zu tun haben, heißt es in dem Artikel. Das Gespräch über das Apothekenportal erwähnt das Jahr 2020, In den anderen Gesprächen wird jedoch kein Datum angegeben.
Wie konnte das passieren?
Ein Kommentator ausArs Technica schreibt, dass die durchgesickerten Anmeldedaten aus der Zeit stammen, bevor ChatGPT öffentlich zugänglich gemacht wurde. Ihm zufolge waren die Daten wahrscheinlich in den Datensätzen enthalten, mit denen das Sprachmodell (LLM) von OpenAI trainiert und gezeichnet wurde.
Ein anderer Benutzer wies darauf hin, dass das GPT-2-Sprachmodell von OpenAI war ab Februar 2019 erhältlich. Es gäbe also keinen Grund zu der Annahme, dass es sich dabei um „Trainingsdaten“ handelt. Vielmehr wären es Chatverläufe von sogenannten „Early Adopters“, also Nutzern, die schon sehr früh mit KI gearbeitet haben.
Ein anderer Kommentator sieht die Sache anders. ChatGPT zeichnet den Verlauf der vom KI-System generierten Benutzeranfragen und -antworten auf, er sagte. Offenbar ist ein Fehler aufgetreten und der Anfrage- und Antwortverlauf wurde in den Konten anderer Personen angezeigt.
„Es hat nichts mit dem Sprachmodell zu tun. Dies ist ein ähnliches Problem, das bei verschiedenen Unternehmen mit E-Mails, Benutzer-Chat-Verläufen usw. Hunderte, wenn nicht Tausende Male aufgetreten ist. Es ist fast immer ein trivialer Fehler mit einer trivialen Lösung.“
Ein OpenAI-Vertreter sagte Ars Technica dass das Unternehmen die Situation untersuchte.
Welche Lektion können wir daraus lernen?
Immer nach Ars TechnicaDieser Vorfall unterstreicht unter anderem, wie wichtig es ist, personenbezogene Daten bei Anfragen an ChatGPT und andere KI-Dienste zu entfernen.
Im März 2023, OpenAI hatte offline genommen der KI-Chatbot, nachdem ein Fehler dazu geführt hatte, dass die Website Schlagzeilen aus dem Chat-Verlauf eines aktiven Benutzers an Dritte anzeigte.
Im November 2023 veröffentlichten Forscher einen technischen Artikel (PDF), in dem sie erklärten, wie sie ChatGPT mithilfe von Abfragen dazu verleiten konnten, E-Mail-Adressen, Telefon- und Faxnummern, physische Adressen und andere private Daten preiszugeben. Die fraglichen Daten wären in der Hardware enthalten gewesen, die zum Trainieren des großen Sprachmodells von OpenAI verwendet wurde.
Ars Technica erinnert auch daran, dass mehrere große Unternehmen, darunter apple, die Nutzung von ChatGPT und anderen Chatbots mit künstlicher Intelligenz durch ihre eigenen Mitarbeiter eingeschränkt oder sogar verboten haben.
Aus dem Deutschen übersetzt und adaptiert von Léa Krejci
[ad_2]