Mittlerweile sind Sie mit chatgpt vertraut. Es wurde eines der am schnellsten wachsende Verbraucheranwendungen die Welt nur zwei Monate nach seiner Veröffentlichung gesehen hatte.
Aufgrund der Aufmerksamkeit ist jede Organisation zu einer anderen Schlussfolgerung bezüglich der Verwendung großer Sprachmodelle in fortschrittlichen Chatbots gekommen – sowohl hinsichtlich der alltäglichen Nutzung der Technologie am Arbeitsplatz als auch der größeren gesellschaftlichen Fragen, die sie aufwirft.
Bei vielen Unternehmen haben diese Tools großes Interesse geweckt, da sie sie nutzen möchten, um die Produktivität zu steigern. Es hat jedoch auch die Aufmerksamkeit der Menschen auf sich gezogen Behörden, wenn man bedenkt, wie es Daten sammelt und produziert. Abgesehen davon, dass Fragen zur Datenkonformität aktiv diskutiert werden, muss auch der Schutz des geistigen Eigentums von Unternehmen oder sensibler Kundendaten vor der Verwendung in ChatGPT oder anderen KI-Projekten berücksichtigt werden.
Zscaler hat Hunderte von KI-Tools und Websites identifiziert, darunter OpenAI ChatGPT, und eine URL-Kategorie namens „KI- und ML-Anwendungen“ erstellt. Organisationen können diese URL-Kategorie verwenden, um verschiedene Maßnahmen zu ergreifen: den Zugriff auf diese Websites vollständig zu blockieren, den vorsichtsbasierten Zugriff auszuweiten, bei dem Benutzer in der Verwendung dieser Tools geschult werden, oder die Verwendung – jedoch mit Einschränkungen – durch Browserisolation zum Schutz von Daten zuzulassen .
Jetzt werden wir näher darauf eingehen, wie die Isolation dazu beiträgt, die Produktivität anzukurbeln und gleichzeitig die Datensicherheit aufrechtzuerhalten.
Zunächst ist es wichtig zu verstehen, warum Datensicherheit so wichtig ist. Der Ökonom Korea hat eine warnende Geschichte zur Datensicherheit von ChatGPT ausführlich dargelegt. Im April beobachtete Samsung drei separate Lecks sensibler Unternehmensdaten mit ChatGPT in seiner Halbleitersparte. In einem Fall wurde das Tool verwendet, um vertraulichen Quellcode zu überprüfen, ein anderer Mitarbeiter forderte eine „Code-Optimierung“ und ein dritter lud eine Besprechungsaufzeichnung hoch, um ein Transkript zu erstellen. Diese Informationen sind jetzt Teil von ChatGPT. Samsung seinerseits hat die Verwendung des Tools eingeschränkt und kann es verbieten oder sogar eine interne Version erstellen.
Bei Zscaler hören wir von Organisationen auf beiden Seiten der ChatGPT-Münze und bieten daher verschiedene Aktionen für den Zugriff auf diese Websites an. Isolation kann auf folgende Weise hilfreich sein.
Datensicherheit mit Innovation in Einklang bringen
Mithilfe des Zscaler Zero Trust Exchange können diese großen Sprachmodellanwendungen oder KI-Internetziele in der URL-Kategorie „KI- und ML-Anwendungen“ in Zscaler Browser Isolation gerendert werden. Der Vorteil? Leistungsstarke Kontrollen über den Umgang mit sensiblen Daten, sowohl mit Dateien als auch mit bestimmten sensiblen Informationen.
Zunächst könnten Sie alle Uploads und Downloads blockieren (auf den KI-Sites, die dies zulassen) und den Zugriff auf die Zwischenablage vollständig einschränken. Wenn Sie jedoch eine gewisse Nutzung zulassen möchten, können Sie Texteingaben zulassen. Benutzer können weiterhin Abfragen eingeben und mit den generierten Erkenntnissen experimentieren.
Wie sieht es mit den Risiken aus, die mit der Weitergabe vertraulicher Daten durch Benutzer in ihren Chat-Anfragen verbunden sind? Mit der Browser-Isolation können alle eingegebenen sensiblen Daten erkannt und vor dem Senden durch die Zscaler DLP-Engine geschützt werden. Um einen vollständigen Überblick darüber zu erhalten, wie Mitarbeiter diese Websites nutzen, können wir außerdem die Anfragen sehen und protokollieren, die Mitarbeiter an einen Ort wie ChatGPT stellen, auch wenn die DLP-Regeln nicht aktiviert sind.
Abbildung 1. DLP-Workflow zum Schutz der Datenfreigabe in Browser-Isolation
Nehmen wir zum Beispiel an, ein Benutzer versucht, in einer Eingabeaufforderung viel Text, einschließlich vertraulicher Daten, hochzuladen. Die Benutzer können Daten innerhalb der Grenzen der Browser-Isolation eingeben, die als kurzlebiger Container ausgeführt wird. Dennoch dürfen keine sensiblen Daten das Unternehmen verlassen – sie werden in der Browser-Isolationssitzung blockiert.
Wie wäre es mit der Vermeidung von Problemen mit geistigem Eigentum, indem sichergestellt wird, dass keine Daten auf den Computer eines Benutzers heruntergeladen werden können? Dies kann vermieden werden, indem Downloads isoliert blockiert werden oder temporärer „geschützter Speicher“ verwendet wird, ohne dass diese Daten an den Endpunkt gelangen oder gegen die Upload-/Download-Richtlinie des Endpunkts verstoßen wird. Ebenso können alle Ausgabeproduktivitätsdateien wie .docx, .xlsx usw. als schreibgeschützte PDFs in diesem geschützten Speicher angezeigt werden, ohne dass diese unbedingt auf den Endpunkt selbst heruntergeladen werden müssen.
Darüber hinaus kann die DLP-Engine vertrauliche Inhalte in den Dateien erkennen und sogar die optische Zeichenerkennung nutzen, um vertrauliche Daten in den Bilddateien zu finden, selbst wenn Uploads zulässig sind – zu KI-Tools oder einer anderen Website.
Letztendlich möchten Unternehmen auch vollständig nachverfolgen, wie Mitarbeiter diese Websites isoliert nutzen. Hier kommt der DLP Incident Receiver ins Spiel, der alle Anfragen an KI-Anwendungen erfasst und protokolliert, damit sie von Sicherheits- oder Auditteams überprüft werden können.
Doch was ist mit Organisationen, die noch nicht bereit sind, den Einsatz von KI-Anwendungen zuzulassen? Unternehmen können den Zugriff auf die URL-Kategorie „KI- und ML-Anwendungen“ sperren.
Somit bietet der Zscaler Zero Trust Exchange umfassenden Schutz, ermöglicht gleichzeitig die Produktivität Ihrer Benutzer und verhindert die Schatten-IT-Nutzung.
Sehen Sie hier unsere Schutzmaßnahmen in Aktion kurze Demooder erkunden Sie, wie Sie den Einsatz von KI-Tools sowohl einschränken als auch sicher übernehmen können.
Copyright © 2023 IDG Communications, Inc.