[ad_1]

In dieser Woche kam es zu zwei Sicherheitsvorfällen in OpenAI, bei denen es um die Desktop-Version der chatgpt-App ging, die kürzlich vollständig für Mac-Benutzer geöffnet wurde. Bei dem anderen handelte es sich um einen ausländischen Medienbericht, wonach OpenAI im vergangenen Jahr gehackt und Informationen gestohlen wurden, was möglicherweise Ausländer anlockt Konkurrenten nutzen es erneut.

Die Desktop-Version von ChatGPT-Konversationen ist nicht durch Verschlüsselung geschützt

Pedro José Pereira Vieito, ein Daten- und Elektronikingenieur und Swift-Entwickler, führte eine eingehende Untersuchung der ChatGPT-App durch und stellte fest, dass sie ChatGPT-Konversationsinhalte auf dem Mac-Computer nur im Klartext speichert und nicht verschlüsselt, was die Datensicherheit erhöhen kann Anliegen. Sobald Malware oder Kriminelle in Ihren Mac-Computer eindringen, ist es möglich, auf ChatGPT-Konversationen und -Daten zuzugreifen.

Da die ChatGPT-App von der offiziellen OpenAI-Website heruntergeladen und auf Ihrem Mac-Computer installiert wird, wurde sie nicht von apple überprüft und im Mac App Store bereitgestellt, sodass sie nicht den Sandbox-Modus-Anforderungen der Plattform entsprechen muss. Alle Apps aus dem Mac App Store laufen im Sandbox-Modus und können nicht auf in anderen Apps gespeicherte Daten zugreifen, um eine weitere Ausweitung potenzieller Schwachstellen zu verhindern.

Nachdem die Entdeckung von Pedro José Pereira Vieito aufgedeckt wurde, löste sie sofort eine aktualisierte Version aus, um die auf dem Mac-Computer gespeicherten Konversationsinhalte zu verschlüsseln und zu schützen. Sie können über die ChatGPT-App nach Updates suchen, um auf die neue Version zu aktualisieren.

▲ Pedro José Pereira Vieito entdeckte die Risiken der Verwendung der ChatGPT-App.

Siehe auch  Scarlett Johansson ging „schockiert und verärgert“, nachdem ChatGPT ihre Stimme benutzte, von der sie sagt, dass sie ihre sei

Hacker sind letztes Jahr in OpenAI eingedrungen und haben Informationen gestohlen

Der jüngste Bericht der New York Times wies darauf hin, dass ein Hacker letztes Jahr in das interne Diskussionsforum von OpenAI eingedrungen sei und die neuesten Informationen über die KI-Entwicklung des Unternehmens gestohlen habe, ohne weiteren Zugriff auf das KI-System zu haben.

Der ehemalige OpenAI-Forscher Leopold Aschenbrenner warnte den Vorstand, dass der Hackerangriff ausländische Gegner wie China dazu verleiten könnte, in das Unternehmen einzudringen und Informationen zu stehlen. Die Führungskräfte des Unternehmens beschlossen schließlich, den Vorfall nicht öffentlich zu machen, da keine Kunden- oder Partnerdaten gestohlen wurden, und er behauptete, er sei nach dem Vorfall entlassen worden.

„Obwohl wir sein Engagement für den Aufbau einer sicheren AGI (Künstliche Allgemeine Intelligenz) teilen, sind wir mit vielen der Behauptungen, die er über uns aufgestellt hat, nicht einverstanden“, sagte OpenAI-Sprecherin Liz Bourgeois der New York Times über seine Entlassung.

Die KI-Technologie entwickelt sich weiter und der Schutz von Daten und Technologie wird noch wichtiger. OpenAI hat kürzlich einen Sicherheitsausschuss eingerichtet, um den Umgang mit Risiken durch zukünftige Technologien zu diskutieren. Zu den Mitgliedern des Ausschusses gehört der pensionierte Armeegeneral Paul Nakasone, der einst die US-amerikanische National Security Agency und das US Cyber ​​Command Last leitete Monat Gerade zum Direktor von OpenAI ernannt.

(Quelle des ersten Bildes:Unsplash


Neue wissenschaftliche und technologische Erkenntnisse, die von Zeit zu Zeit aktualisiert werden


[ad_2]

5/5 - (232 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein