12. Okt. 2023Die Hacker-NewsDatensicherheit / Künstliche Intelligenz

chatgpt.jpg“ style=“clear: left; display: block; float: left; text-align: center;“>

ChatGPT hat die Art und Weise, wie Unternehmen Textinhalte generieren, verändert, was möglicherweise zu einem Quantensprung in der Produktivität führen kann. Allerdings führt die generative KI-Innovation auch zu einer neuen Dimension des Datenrisikos, wenn Mitarbeiter versehentlich vertrauliche Geschäftsdaten in ChatGPT oder ähnliche Anwendungen eingeben oder einfügen. DLP-Lösungen, die Lösung für ähnliche Herausforderungen, sind für die Bewältigung dieser Herausforderungen schlecht gerüstet, da sie sich auf den dateibasierten Datenschutz konzentrieren.

Ein neuer Bericht von LayerX, „Browser Security Platform: Schützen Sie Ihre Daten vor Offenlegung in ChatGPT“ (Hier herunterladen) beleuchtet die Herausforderungen und Risiken der unkontrollierten ChatGPT-Nutzung. Es zeichnet ein umfassendes Bild der potenziellen Gefahren für Unternehmen und bietet dann eine mögliche Lösung: Browser-Sicherheitsplattformen. Solche Plattformen bieten Echtzeitüberwachung und Steuerung von Websitzungen und schützen so sensible Daten wirksam.

Offenlegung von ChatGPT-Daten: In Zahlen

  • Die Nutzung von GenAI-Apps durch die Mitarbeiter ist in den letzten drei Monaten um 44 % gestiegen.
  • Auf GenAI-Apps, einschließlich ChatGPT, wird 131 Mal pro Tag pro 1.000 Mitarbeiter zugegriffen.
  • 6 % der Mitarbeiter haben sensible Daten in GenAI-Apps eingefügt.

Arten gefährdeter Daten

  • Sensible/interne Informationen
  • Quellcode
  • Kundendaten
  • Geregelte personenbezogene Daten
  • Projektplanungsdateien

Datenexpositionsszenarien

  1. Unbeabsichtigte Exposition: Mitarbeiter können versehentlich vertrauliche Daten in ChatGPT einfügen.
  2. Böswilliger Insider: Ein betrügerischer Mitarbeiter könnte ChatGPT ausnutzen, um Daten zu exfiltrieren.
  3. Gezielte Angriffe: Externe Gegner könnten Endpunkte kompromittieren und ChatGPT-orientierte Aufklärung durchführen.
Siehe auch  5 Cyber-Geschichten, die Sie diese Woche verpasst haben

Warum dateibasierte DLP-Lösungen unzureichend sind

Herkömmliche DLP-Lösungen sind darauf ausgelegt, in Dateien gespeicherte Daten zu schützen, nicht Daten, die in Websitzungen eingefügt werden. Sie sind gegen die von ChatGPT ausgehenden Risiken unwirksam.

3 gängige Ansätze zur Minderung von Datenrisiken

  1. Zugriff sperren: Effektiv, aber aufgrund von Produktivitätsverlusten nicht nachhaltig.
  2. Mitarbeiterschulung: Bekämpft unbeabsichtigte Offenlegung, es fehlen jedoch Durchsetzungsmechanismen.
  3. Browser-Sicherheitsplattform: Überwacht und steuert die Benutzeraktivität innerhalb von ChatGPT und mindert so Risiken effektiv, ohne die Produktivität zu beeinträchtigen.

Was zeichnet Browser-Sicherheitsplattformen aus?

Browser-Sicherheitsplattformen bieten Echtzeit-Sichtbarkeit und Durchsetzungsfunktionen für Live-Websitzungen. Sie können alle Mittel überwachen und steuern, mit denen Benutzer ChatGPT Eingaben übermitteln, und bieten so ein Schutzniveau, das herkömmliche DLP-Lösungen nicht erreichen können.

Ein dreistufiger Sicherheitsansatz

Browser-Sicherheitsplattformen bieten drei Schutzstufen:

  1. ChatGPT-Zugriffskontrolle: Diese Stufe ist auf Benutzer zugeschnitten, die mit streng vertraulichen Daten interagieren, und schränkt den Zugriff auf ChatGPT ein.
  2. Aktions-Governance in ChatGPT: Diese Ebene konzentriert sich auf die Überwachung und Steuerung von Dateneinfügungsaktionen wie Einfügen und Ausfüllen, um das Risiko einer direkten Offenlegung sensibler Daten zu verringern.
  3. Überwachung der Dateneingabe: Auf der detailliertesten Ebene können Organisationen bestimmte Daten definieren, die nicht in ChatGPT eingefügt werden sollen.

Eine Browser-Sicherheitsplattform ermöglicht eine Mischung aus Blockieren, Warnen und Zulassen von Aktionen auf diesen drei Ebenen, sodass Unternehmen ihre Datenschutzstrategien individuell anpassen können.

Sichern und Aktivieren von ChatGPT

Die Browser-Sicherheitsplattform ist heute die einzige Lösung, die sich wirksam vor den Risiken der Offenlegung von Daten in ChatGPT schützen kann und es Unternehmen ermöglicht, das volle Potenzial von KI-gesteuerten Textgeneratoren auszuschöpfen, ohne Kompromisse bei der Datensicherheit einzugehen. Für weitere Einblicke laden Sie den Bericht herunter.

Fanden Sie diesen Artikel interessant? Folge uns auf Twitter Und LinkedIn um weitere exklusive Inhalte zu lesen, die wir veröffentlichen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein