12. Okt. 2023Die Hacker-NewsDatensicherheit / Künstliche Intelligenz

chatgpt.jpg“ style=“clear: left; display: block; float: left; text-align: center;“>

ChatGPT hat die Art und Weise, wie Unternehmen Textinhalte generieren, verändert, was möglicherweise zu einem Quantensprung in der Produktivität führen kann. Allerdings führt die generative KI-Innovation auch zu einer neuen Dimension des Datenrisikos, wenn Mitarbeiter versehentlich vertrauliche Geschäftsdaten in ChatGPT oder ähnliche Anwendungen eingeben oder einfügen. DLP-Lösungen, die Lösung für ähnliche Herausforderungen, sind für die Bewältigung dieser Herausforderungen schlecht gerüstet, da sie sich auf den dateibasierten Datenschutz konzentrieren.

Ein neuer Bericht von LayerX, „Browser Security Platform: Schützen Sie Ihre Daten vor Offenlegung in ChatGPT“ (Hier herunterladen) beleuchtet die Herausforderungen und Risiken der unkontrollierten ChatGPT-Nutzung. Es zeichnet ein umfassendes Bild der potenziellen Gefahren für Unternehmen und bietet dann eine mögliche Lösung: Browser-Sicherheitsplattformen. Solche Plattformen bieten Echtzeitüberwachung und Steuerung von Websitzungen und schützen so sensible Daten wirksam.

Offenlegung von ChatGPT-Daten: In Zahlen

  • Die Nutzung von GenAI-Apps durch die Mitarbeiter ist in den letzten drei Monaten um 44 % gestiegen.
  • Auf GenAI-Apps, einschließlich ChatGPT, wird 131 Mal pro Tag pro 1.000 Mitarbeiter zugegriffen.
  • 6 % der Mitarbeiter haben sensible Daten in GenAI-Apps eingefügt.

Arten gefährdeter Daten

  • Sensible/interne Informationen
  • Quellcode
  • Kundendaten
  • Geregelte personenbezogene Daten
  • Projektplanungsdateien

Datenexpositionsszenarien

  1. Unbeabsichtigte Exposition: Mitarbeiter können versehentlich vertrauliche Daten in ChatGPT einfügen.
  2. Böswilliger Insider: Ein betrügerischer Mitarbeiter könnte ChatGPT ausnutzen, um Daten zu exfiltrieren.
  3. Gezielte Angriffe: Externe Gegner könnten Endpunkte kompromittieren und ChatGPT-orientierte Aufklärung durchführen.
Siehe auch  5 Cyber-Geschichten, die Sie diese Woche verpasst haben

Warum dateibasierte DLP-Lösungen unzureichend sind

Herkömmliche DLP-Lösungen sind darauf ausgelegt, in Dateien gespeicherte Daten zu schützen, nicht Daten, die in Websitzungen eingefügt werden. Sie sind gegen die von ChatGPT ausgehenden Risiken unwirksam.

3 gängige Ansätze zur Minderung von Datenrisiken

  1. Zugriff sperren: Effektiv, aber aufgrund von Produktivitätsverlusten nicht nachhaltig.
  2. Mitarbeiterschulung: Bekämpft unbeabsichtigte Offenlegung, es fehlen jedoch Durchsetzungsmechanismen.
  3. Browser-Sicherheitsplattform: Überwacht und steuert die Benutzeraktivität innerhalb von ChatGPT und mindert so Risiken effektiv, ohne die Produktivität zu beeinträchtigen.

Was zeichnet Browser-Sicherheitsplattformen aus?

Browser-Sicherheitsplattformen bieten Echtzeit-Sichtbarkeit und Durchsetzungsfunktionen für Live-Websitzungen. Sie können alle Mittel überwachen und steuern, mit denen Benutzer ChatGPT Eingaben übermitteln, und bieten so ein Schutzniveau, das herkömmliche DLP-Lösungen nicht erreichen können.

Ein dreistufiger Sicherheitsansatz

Browser-Sicherheitsplattformen bieten drei Schutzstufen:

  1. ChatGPT-Zugriffskontrolle: Diese Stufe ist auf Benutzer zugeschnitten, die mit streng vertraulichen Daten interagieren, und schränkt den Zugriff auf ChatGPT ein.
  2. Aktions-Governance in ChatGPT: Diese Ebene konzentriert sich auf die Überwachung und Steuerung von Dateneinfügungsaktionen wie Einfügen und Ausfüllen, um das Risiko einer direkten Offenlegung sensibler Daten zu verringern.
  3. Überwachung der Dateneingabe: Auf der detailliertesten Ebene können Organisationen bestimmte Daten definieren, die nicht in ChatGPT eingefügt werden sollen.

Eine Browser-Sicherheitsplattform ermöglicht eine Mischung aus Blockieren, Warnen und Zulassen von Aktionen auf diesen drei Ebenen, sodass Unternehmen ihre Datenschutzstrategien individuell anpassen können.

Sichern und Aktivieren von ChatGPT

Die Browser-Sicherheitsplattform ist heute die einzige Lösung, die sich wirksam vor den Risiken der Offenlegung von Daten in ChatGPT schützen kann und es Unternehmen ermöglicht, das volle Potenzial von KI-gesteuerten Textgeneratoren auszuschöpfen, ohne Kompromisse bei der Datensicherheit einzugehen. Für weitere Einblicke laden Sie den Bericht herunter.

Siehe auch  ChatGPT prognostiziert einen potenziellen Anstieg von Bitcoin auf 100.000 US-Dollar bis 2024

Fanden Sie diesen Artikel interessant? Folge uns auf Twitter Und LinkedIn um weitere exklusive Inhalte zu lesen, die wir veröffentlichen.

5/5 - (188 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein