OpenAI, der Entwickler von chatgpt, sieht sich mit Sicherheitsbedenken konfrontiert, nachdem diese Woche ein Datenleck aus dem Jahr 2023 ans Licht kam. Die Nachricht über das Datenleck kommt nur wenige Tage, nachdem ChatGPT-Benutzer einen schwerwiegenden Fehler im Chatbot und eine schwerwiegende Sicherheitslücke in der ChatGPT-App für macOS gemeldet haben.

Als Entwickler des weltweit beliebtesten KI-Chatbots ist es keine Überraschung, dass OpenAI ein Ziel für Hacker ist. Das Unternehmen hat schnell auf aktuelle Sicherheitsprobleme reagiert, aber es ist für Benutzer dennoch wichtig zu wissen, wie sie betroffen sein könnten und wie sie ihre Daten in Zukunft schützen können.

Hier erhalten Sie einen Überblick über die jüngsten Sicherheitskontroversen bei OpenAI und erfahren, was Sie tun können, um bei der Verwendung von ChatGPT sicher zu bleiben.

OpenAI wurde 2023 gehackt und hat es geheim gehalten: Was Benutzer wissen sollten

(Bildnachweis: Justin Sullivan/Getty Images)

Am 4. JuliNew York Times gemeldet dass OpenAI Anfang 2023 einen Angriff erlebte, die Öffentlichkeit jedoch nicht darüber informierte. Ein Hacker griff auf die internen Messaging-Foren von OpenAI zu, wo er Gespräche über die Funktionsweise der OpenAI-Technologien einsehen konnte.

Anonyme OpenAI-Mitarbeiter berichteten Cade Metz von der New York Times dass die Führungskräfte von OpenAI sich entschieden, den Vorfall nicht öffentlich zu machen, da der Hacker keinen Zugriff auf die tatsächlichen Systeme des Unternehmens hatte, wie etwa auf Kundendaten. Einer der Mitarbeiter von OpenAI, Leopold Aschenbrenner, äußerte nach dem Vorfall Bedenken über die mangelnden Sicherheitsmaßnahmen des Unternehmens, aber wurde kurz darauf entlassen zum Informationsaustausch mit Forschern außerhalb des Unternehmens.

Siehe auch  Erstellen Sie ChatGPT-4o-KI-Agenten per Drag-and-Drop mit VectorShift

Dies ist wichtig zu beachten, da Aschenbrenner Teil des Superalignment-Teams von OpenAI war, einer Gruppe von Ingenieuren und Forschern, die dafür sorgen soll, dass die Produkte von OpenAI ethisch und sicher sind. Das Superalignment-Team hat in den letzten Monaten aufgrund ähnlicher Sicherheitsbedenken einige weitere große Abgänge erlebt.

Tatsächlich hat Jan Leike, Head of Alignment bei OpenAI, seine Sicherheitsbedenken gegenüber X nach seinem Rücktritt im Mai 2024 konkret dargelegt. Leike sagte in einem X-Post, dass „Sicherheitskultur und -prozesse in den letzten Jahren hinter glänzenden Produkten zurückgeblieben sind.“

Während der OpenAI-Hack im April 2023 wahrscheinlich keine direkten Auswirkungen auf die Endnutzer hatte, zeugt die Art und Weise, wie OpenAI damit umgegangen ist, von mangelnder Transparenz. Es könnte auch langfristige Folgen haben, wenn der Hacker und alle anderen, die seine Strategie nachahmen könnten, auf Informationen zugreifen, die es ihnen ermöglichen würden, ChatGPT selbst zu jailbreaken oder zu hacken.

Von Benutzern auf Reddit und macOS entdeckte ChatGPT-Sicherheitslücken

Unglücklicherweise für OpenAI war der interne Messaging-Hack von 2023 nicht die einzige Sicherheitslücke, die diese Woche ans Licht kam.

Am 30. Juni schrieb Reddit-Benutzer F0XMaster gepostet auf r/ChatGPT über einen seltsamen Fehler, den sie bei der Verwendung des Chatbots erlebten. Nachdem sie den Chatbot mit einem einfachen „Hallo“ begrüßt hatten, antwortete ChatGPT mit einer Übersicht seiner Systemanweisungen, die nur für Entwickler sichtbar sein sollen.

Siehe auch  OpenAI könnte seinen Google-Suchkonkurrenten einen Tag vor der Google I/O vorstellen – alles, was Sie wissen müssen

Die Systemanweisungen enthüllten die Funktionsweise von ChatGPT, einschließlich einiger der Sicherheitsvorkehrungen, die das Verhalten des Chatbots regeln. Beispielsweise wird ChatGPT angewiesen, nur ein Bild pro Eingabeaufforderung zu generieren, selbst wenn ein Benutzer mehr anfordert.

Andere Benutzer antworteten schnell auf den Beitrag und gaben Workarounds an, die sie herausgefunden hatten und mit denen sie die Systemanweisungen des Chatbots umgehen konnten. OpenAI hat das Problem innerhalb eines Tages nach der Veröffentlichung des Beitrags behoben, sodass diese „Jailbreak“-Taktiken nicht mehr funktionieren.

Als ob das nicht schlimm genug wäre, gibt es bei OpenAI auch noch Bedenken von Mac-Benutzern, nachdem ein Threads-Benutzer enthüllte, dass die macOS ChatGPT-App Konversationen als reine Textdateien speicherte. Das bedeutet, dass ein Hacker, eine bösartige App oder jeder, der neugierig genug ist, über die macOS ChatGPT-App ungehindert auf die gesamten Konversationen eines Opfers zugreifen könnte.

OpenAI hat die App inzwischen gepatcht, um gespeicherte Unterhaltungen zu verschlüsseln. Diese Dateien sollten also künftig sicher sein. Es ist jedoch möglich, dass die Textdateien mit den ChatGPT-Unterhaltungen der Benutzer vor dem letzten App-Update anfällig waren.

Wie wirken sich diese Sicherheitslücken auf die Benutzer aus?

Die Logos von <a href=apple Intelligence und ChatGPT hinter zwei hintereinander angeordneten iPhones“ srcset=“https://cdn.mos.cms.futurecdn.net/sWAvLkrXSHTnyBzj45jZCW-320-80.jpg 320w, https://cdn.mos.cms.futurecdn.net/sWAvLkrXSHTnyBzj45jZCW-480-80.jpg 480w, https://cdn.mos.cms.futurecdn.net/sWAvLkrXSHTnyBzj45jZCW-650-80.jpg 650w, https://cdn.mos.cms.futurecdn.net/sWAvLkrXSHTnyBzj45jZCW-970-80.jpg 970w, https://cdn.mos.cms.futurecdn.net/sWAvLkrXSHTnyBzj45jZCW-1024-80.jpg 1024w, https://cdn.mos.cms.futurecdn.net/sWAvLkrXSHTnyBzj45jZCW-1200-80.jpg 1200w“ sizes=“(min-width: 1000px) 970px, calc(100vw – 40px)“ loading=“lazy“ src=“https://cdn.mos.cms.futurecdn.net/sWAvLkrXSHTnyBzj45jZCW.jpg“ data-pin-media=“https://cdn.mos.cms.futurecdn.net/sWAvLkrXSHTnyBzj45jZCW.jpg“/>

(Bildnachweis: Apple/OpenAI (auf Canva bearbeitet))

Es ist sicherlich kein guter Zeitpunkt für OpenAI, zwischen den Nachrichten über den internen Nachrichtenverstoß von 2023, einem besorgniserregenden Fehler bei ChatGPT und einer schwerwiegenden Sicherheitslücke in der ChatGPT macOS-App. Wenn Sie jedoch ein ChatGPT-Benutzer sind, könnte nur eines dieser Probleme möglicherweise direkt auf Sie Auswirkungen haben.

Siehe auch  ChatGPT verbraucht über 500.000 Kilowattstunden Strom pro Tag

Der Verstoß von 2023 betraf nur die internen Messaging-Foren von OpenAI und gefährdete wahrscheinlich Unternehmensgeheimnisse, nicht jedoch Benutzerdaten. Ebenso wurde der letztes Wochenende auf Reddit aufgedeckte Fehler behoben und scheint nur die eigenen Anweisungen von ChatGPT offengelegt zu haben.

Die Sicherheitslücke in der ChatGPT-App von macOS ist jedoch besorgniserregend. Wenn Sie die Mac-App verwendet haben, ist die gute Nachricht, dass Ihre Unterhaltungen seit dem neuesten App-Update verschlüsselt sind. Vor diesem Update waren diese Unterhaltungen möglicherweise anfällig für Hackerangriffe.

Sofern Ihr Mac jedoch nicht zwischen dem Herunterladen der Mac ChatGPT-App und der Veröffentlichung des Verschlüsselungspatches in dieser Woche gehackt wurde, besteht wahrscheinlich kein Grund zur Sorge. Wenn Sie nicht sicher sind, ob Ihr Mac kürzlich Malware ausgesetzt war, können Sie mit einem Antivirenprogramm nach verdächtigen Aktivitäten oder Downloads suchen.

Sie können Ihre Daten in der ChatGPT-App auch künftig schützen, indem Sie Konversationen löschen, wenn Sie sie nicht mehr benötigen. Es kann auch eine gute Idee sein, die Funktion „Das Modell für alle verbessern“ in der App. Mit dieser Funktion kann OpenAI Ihre Unterhaltungen verwenden, um ChatGPT zu trainieren. Wenn Ihnen Ihre Privatsphäre wichtig ist, ist es wahrscheinlich eine gute Idee, sich von diesem Programm abzumelden.

Sie sollten auch nach macOS 15 und Apple Intelligence Ausschau halten, mit denen Sie ChatGPT auf Ihrem Mac verwenden können, ohne Ihre Daten mit OpenAI zu teilen. Dies wird wahrscheinlich die privateste und sicherste Möglichkeit sein, auf ChatGPT zuzugreifen, sobald die Funktion später in diesem Jahr eingeführt wird.

Mehr von Laptop Mag

Pfeil

Zurück zu Apple MacBook Pro

Pfeil

Weitere Angebote laden

5/5 - (367 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein