Der Einsatz von chatgpt boomt in Unternehmen. „Nein“ zu Mitarbeitern zu sagen, die ChatGPT nutzen möchten, ist laut Netskope eine kurzfristige Antwort, deren Lösung Datenerkenntnisse nutzt, um „Ja“, „Nein“ und „manchmal“ zu sagen.

Bild: Adobe Stock

Die neue Anwendung der Sicherheitstools des Unternehmens umfasst die Datenanalyse generativer KI-Eingaben und Elemente der Benutzereinbindung in Echtzeit wie Richtlinien- und Risikocoaching zur Verwendung von ChatGPT. Es überwacht nicht nur die Daten, die Benutzer an generative KI-Modelle oder andere große Sprachmodelle wie google Bard und Jasper weitergeben, sondern kann diese Eingaben auch blockieren, wenn sie sensible Daten oder Code enthalten.

Das neue Funktionspaket soll sicherstellen, dass Mitarbeiter in Organisationen, ob vor Ort oder remote, ChatGPT und andere generative KI-Anwendungen auf eine Weise nutzen, die Unternehmensdaten nicht gefährdet, so das Unternehmen.

Netskope sagte, seine Daten zeigten Folgendes:

  • Ungefähr 10 % der Unternehmensorganisationen blockieren aktiv die Nutzung von ChatGPT durch Teams.
  • Ein Prozent der Unternehmensmitarbeiter nutzt ChatGPT täglich aktiv.
  • Jeder Benutzer sendet durchschnittlich acht ChatGPT-Eingabeaufforderungen pro Tag.
  • Die ChatGPT-Nutzung in Unternehmen wächst monatlich um 25 %.

Basierend auf Untersuchungen eines Datensicherheitsunternehmens CyberhavenMindestens 10,8 % der Unternehmensmitarbeiter haben versucht, ChatGPT am Arbeitsplatz zu verwenden, und 11 % der Daten, die Mitarbeiter auf ChatGPT hochladen, sind vertraulich.

Springen zu:

Zero-Trust-Ansatz zum Schutz der der KI zugeführten Daten

Robinson sagte, dass Netskopes auf generative KI angewandte Lösung seinen Security Service Edge mit einschließt Cloud XDdie Zero-Trust-Engine des Unternehmens für den Daten- und Bedrohungsschutz rund um Apps, Cloud-Dienste und Webverkehr, die auch adaptive Richtlinienkontrollen ermöglicht.

Siehe auch  Kann ChatGPT entschlüsseln, was die Federal Reserve sagt?

„Durch eine umfassende Analyse des Datenverkehrs, nicht nur auf Domänenebene, können wir erkennen, wann der Benutzer eine Anmeldung anfordert oder Daten hoch- und herunterlädt. Dadurch erhalten Sie eine umfassende Sichtbarkeit; Sie können Aktionen einrichten und Dienste für Benutzer sicher aktivieren“, sagte er.

Zu den generativen KI-Zugriffskontroll- und Sichtbarkeitsfunktionen von Netskope gehören laut Netskope:

  • IT-Zugriff auf spezifische ChatGPT-Nutzung und -Trends innerhalb des Unternehmens über die branchenweit umfassendste Entdeckung von Software as a Service (unter Verwendung einer dynamischen Datenbank mit über 60.000 Anwendungen) und erweiterte Analyse-Dashboards.
  • Der Cloud Confidence Index des Unternehmens, der neue generative KI-Anwendungen klassifiziert und deren Risiken bewertet.
  • Detaillierte Kontext- und Instanzerkennung über die Cloud XDTM-Analyse des Unternehmens, die Zugriffsebenen und Datenflüsse über Anwendungskonten erkennt.
  • Sichtbarkeit durch eine Webkategorie für generative KI-Domänen, mit der IT-Teams Zugriffskontroll- und Echtzeitschutzrichtlinien konfigurieren und den Datenverkehr verwalten können.

Die Verwaltung des Zugriffs auf LLMs ist kein binäres Problem

Als Teil seiner Intelligent Security Service Edge-Plattform spiegeln die Fähigkeiten von Netskope das wachsende Bewusstsein in der Cybersicherheits-Community wider, dass der Zugriff auf diese neuen KI-Tools kein „Nutzungs“- oder „Nicht-Nutzungs“-Gateway ist.

„Die Hauptakteure, einschließlich unserer Konkurrenten, werden sich alle dazu hingezogen fühlen“, sagte James Robinson, stellvertretender Chief Information Security Officer bei Netskope. „Aber es handelt sich um ein granulares Problem, weil es sich nicht mehr um eine binäre Welt handelt: Ganz gleich, ob es sich um Mitarbeiter oder andere Technik- oder Geschäftsteams handelt, die Leute werden ChatGPT oder andere Tools verwenden, also brauchen sie Zugriff, oder sie werden Wege finden, im Guten wie im Schlechten.“ ,” er sagte.

Siehe auch  iOS 18 soll leistungsstarke generative KI zur Bekämpfung von ChatGPT entfesseln

„Aber ich denke, die meisten Menschen sind immer noch in der binären Denkweise“, fügte er hinzu und wies darauf hin, dass es eine Tendenz gebe, Firewalls als Mittel der Wahl zu nutzen, um die Osmose von Daten in und aus einer Organisation zu verwalten. „Als Sicherheitsverantwortliche sollten wir nicht einfach ‚Ja‘ oder ‚Nein‘ sagen.“ Vielmehr sollten wir uns mehr auf „Wissen“ konzentrieren, da es sich hierbei um ein granulares Problem handelt. Dafür braucht es ein umfassendes Programm.“

SEHEN: Unternehmen geben mehr für KI und Cybersicherheit aus (TechRepublic)

Benutzerinteraktion in Echtzeit: Popup-Coaching, Warnungen und Alarme

Robinson sagte, dass das Benutzererlebnis ein Echtzeit-Popup-Fenster mit „visuellem Coaching“ umfasst, um Benutzer vor Datensicherheitsrichtlinien und der möglichen Offenlegung sensibler Daten zu warnen.

„In diesem Fall wird Ihnen ein Popup-Fenster angezeigt, wenn Sie beginnen, sich bei einem generativen KI-Modell anzumelden, das Sie beispielsweise direkt beim Aufrufen der Website an Richtlinien zur Verwendung dieser Tools erinnern könnte“, sagte er Robinson. Er sagte, dass die Netskope-Plattform auch eine DLP-Engine verwenden würde, um das Hochladen sensibler Informationen wie persönlich identifizierbarer Informationen, Anmeldeinformationen, Finanzdaten oder anderer Informationen auf das LLM zu blockieren, die auf Datenrichtlinien basieren (Abbildung A).

Abbildung A

Netskope-Popup-Fenster Mit Warnung Für Benutzer.
Das Netskope-Popup-Fenster Warnt Den Benutzer Von Llm, Dass Er Keine Sensiblen Daten Hochladen Darf. Bild: Netskope

„Dazu könnte auch Code gehören, wenn sie versuchen, KI für eine Codeüberprüfung einzusetzen“, fügte Robinson hinzu, der erklärte, dass Cloud XD auch hier zum Einsatz kommt.

SEHEN: Salesforce integriert generative KI in Tableau (TechRepublic)

Die interaktive Funktion der Plattform umfasst Abfragen, mit denen Benutzer aufgefordert werden, ihre Verwendung von KI zu klären, wenn sie eine Maßnahme ergreifen, die gegen Richtlinien oder die Empfehlungen des Systems verstößt. Robinson sagte, dies helfe Sicherheitsteams dabei, ihre Datenrichtlinien rund um den Einsatz von Chatbots weiterzuentwickeln.

Siehe auch  Bing ist Microsofts Standardsuchmaschine in ChatGPT

„Als Sicherheitsteam kann ich nicht zu jedem Geschäftsbenutzer gehen und fragen, warum er bestimmte Daten hochlädt, aber wenn ich diese Informationen zurückbringen kann, könnte ich erkennen, dass wir unsere Richtlinien-Engine ändern oder modifizieren müssen“, sagt er genannt.

4.8/5 - (127 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein