Samsung-Mitarbeiter sind in heißem Wasser, nachdem sie Berichten zufolge vertrauliche Unternehmensinformationen an Samsung weitergegeben haben ChatGPT von OpenAI bei mindestens drei verschiedenen Gelegenheiten. Die Lecks unterstreichen sowohl die weit verbreitete Popularität des beliebten neuen KI-Chatbots für Profis als auch die oft übersehene Fähigkeit von OpenAI sensible Daten aus seinem zu saugen Millionen williger Nutzer.
Lokales Koreanisch Medien Berichte sagen wir, ein Samsung-Mitarbeiter habe den Quellcode aus einer fehlerhaften Halbleiterdatenbank hineinkopiert ChatGPT und bat es, ihnen bei der Suche nach einer Lösung zu helfen. In einem anderen Fall teilte ein Mitarbeiter einen vertraulichen Code mit, um zu versuchen, eine Lösung für defekte Geräte zu finden. Ein anderer Mitarbeiter soll ein ganzes Meeting an den Chatbot übermittelt und ihn gebeten haben, ein Meeting-Protokoll zu erstellen. Nachdem Samsung von den Lecks erfahren hatte, versuchte Samsung, den Schaden zu kontrollieren, indem es eine „Notfallmaßnahme“ einführte, die die Eingabeaufforderung jedes Mitarbeiters zu ChatGPT auf 1024 Byte begrenzte.
Erschwerend kommt hinzu, dass all diese Leaks nur drei Wochen nachdem Samsung ein früheres Verbot für Mitarbeiter, die ChatGPT verwenden, aufgehoben wurde, weil befürchtet wurde, dass genau dieses Problem auftreten könnte. Jetzt entwickelt das Unternehmen seine eigene interne KI. Samsung reagierte nicht sofort auf die Bitte von Gizmodo um einen Kommentar.
OpenAI speichert Daten aus Eingabeaufforderungen
Das Problem beim Teilen von Firmengeheimnissen mit ChatGPT ist, dass diese schriftlichen Anfragen nicht unbedingt verschwinden, wenn ein Mitarbeiter seinen Computer ausschaltet. OpenAI sagt, dass es Daten verwenden kann, die an ChatGPT oder andere Verbraucherdienste übermittelt werden seine KI-Modelle verbessern. Mit anderen Worten: ÖffnenAI speichert diese Daten, es sei denn, Benutzer entscheiden sich ausdrücklich dafür, sich abzumelden. OffenKI warnt Benutzer ausdrücklich gegen das Teilen sensibler Informationen, weil es „bestimmte Eingabeaufforderungen können nicht gelöscht werden.“
Samsung-Mitarbeiter sind jedoch nicht die einzigen, die mit ChatGPT zu viel teilen. Jüngste Forschung Die vom Cybersicherheitsunternehmen Cyberhaven durchgeführte Studie ergab, dass 3,1 % seiner Kunden, die die KI nutzten, zu einem bestimmten Zeitpunkt vertrauliche Unternehmensdaten in das System eingegeben hatten. Cyberhaven schätzt, dass ein Unternehmen mit rund 100.000 Mitarbeitern hunderte Male pro Woche vertrauliche Daten mit OpenAI teilen könnte.
Andere große Firmen haben das bereits getan angefangen, Notiz zu nehmen. In den letzten Wochen beides Amazonas Und Walmart haben Berichten zufolge Mitteilungen an Mitarbeiter herausgegeben, in denen sie davor gewarnt wurden, vertrauliche Informationen mit dem KI-Modus zu teilen. Andere, wie Verizon und JP Morgan Chase, haben das Tool für Mitarbeiter komplett gesperrt.
Möchten Sie mehr über KI, Chatbots und die Zukunft des maschinellen Lernens erfahren? Schauen Sie sich unsere vollständige Berichterstattung über an künstliche Intelligenzoder stöbern Sie in unseren Leitfäden zu Die besten kostenlosen KI-Kunstgeneratoren Und Alles, was wir über ChatGPT von OpenAI wissen.