Entsprechend Ars Technicachatgpt-Benutzer des neuronalen Netzwerks Chase Whiteside bemerkte dass ChatGPT Daten aus privaten Gesprächen preisgibt, darunter Anmeldeinformationen und andere vertrauliche Informationen.

Zwei der sieben von Chase Whiteside eingereichten Screenshots enthielten mehrere Paare aus Benutzernamen und Passwörtern, die verschreibungspflichtige Medikamente über das Apothekenportal bestellten. Sein Mitarbeiter nutzte den Chatbot angeblich, um Probleme zu beheben, die bei der Nutzung des Portals aufgetreten waren. Das Leck enthält den Namen der Anwendung, in der der Mitarbeiter die Fehlerbehebung durchgeführt hat, und die Filialnummer der Filiale, in der das Problem aufgetreten ist. Einer der Screenshots zeigt die gesamte Konversation im Chatbot.

Bildquelle arstechnica.com

Diese Daten bekam ein Nutzer, als er ChatGPT für eine Anfrage aus einem ganz anderen Bereich nutzte. Er bat den Chatbot, gute Namen für die Farben in der Palette zu finden. Der Benutzer bemerkte dann Elemente von Dialogen mehrerer anderer Personen in seinem Abfrageverlauf.

Bildquelle arstechnica.com

Dazu gehörten der Titel einer Präsentation, an der jemand arbeitete, Einzelheiten zu einem unveröffentlichten Forschungsvorschlag und ein Skript, das die Programmiersprache PHP verwendete.

In einem Gespräch über das Rezeptportal wurde das Jahr 2020 erwähnt. In anderen Gesprächen wurden keine Termine genannt.

Im März 2023 hat OpenAI bereits einen Chatbot deaktiviert, nachdem ein Fehler dazu geführt hatte, dass dieser Schlagzeilen aus dem Chatverlauf eines Benutzers für einen anderen Benutzer anzeigte. Im April das Unternehmen erlaubt Benutzer können den Chatverlauf in ihren Zugriffseinstellungen deaktivieren.

Im Juni desselben Jahres wurde OpenAI in einer Sammelklage wegen angeblichen Identitätsdiebstahls und Urheberrechtsverletzung von Autoren und Erstellern von Medieninhalten verklagt. OpenAI wurde vorgeworfen, gegen Datenschutz- und Urheberrechtsgesetze verstoßen zu haben und illegal Informationen im Internet zu sammeln, darunter auch personenbezogene Daten von Personen, die der Verarbeitung nicht zugestimmt haben.

Siehe auch  4 Dinge, die Sie über Gemini wissen sollten, die künstliche Intelligenz, die von Google entwickelt wurde, um mit ChatGPT zu konkurrieren

Im November 2023 haben Forscher der Cornell University veröffentlicht In einem Papier wurde berichtet, wie sie ChatGPT mithilfe von Abfragen dazu veranlassten, E-Mail-Adressen, Telefon- und Faxnummern, physische Adressen und andere persönliche und sensible Daten offenzulegen, die in Materialien enthalten waren, die zum Trainieren eines großen Sprachmodells verwendet wurden.

Als Folge dieser Ereignisse haben viele Unternehmen die Nutzung von ChatGPT und anderen neuronalen Netzen durch ihre Mitarbeiter eingeschränkt oder ganz verboten.

Diese und ähnliche Episoden sind ein Hinweis darauf, dass die Technologie generativer neuronaler Netze noch weit von der Perfektion entfernt ist und bislang eine nicht zu vernachlässigende Gefahr für Benutzer birgt, sowohl durch möglicherweise skrupellose Entwickler neuronaler Netze als auch durch Hacker die die Schwachstellen neuronaler Netze ausnutzen.

Auf der Grundlage des Vorstehenden möchte ich Ihnen persönlich raten: Wenn Sie ChatGPT und andere Neuronen für Ihre eigenen Zwecke nutzen möchten, „füttern“ Sie diese nicht mit Ihren persönlichen Daten und löschen Sie in diesem Fall den Verlauf der Anfragen, die Ihre Daten enthalten .

5/5 - (297 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein