chatgpt ist die neue DNA der Schatten-IT und setzt Unternehmen neuen Risiken aus, mit denen niemand gerechnet hat. IT- und Cybersicherheitsverantwortliche müssen einen Weg finden, die Geschwindigkeit zu nutzen, ohne Abstriche bei der Sicherheit zu machen. OpenAI berichtet, dass die Akzeptanz in Unternehmen zunimmt, und zwar mit über 80 % der Fortune 500 Mitarbeiter und Abteilungen von Unternehmen, die über Konten verfügen.

Unternehmensarbeiter gewinnen an Bedeutung 40 % Leistungssteigerung Dank ChatGPT basierend auf einer aktuellen Studie der Harvard University. Eine zweite Studie des MIT ergab, dass ChatGPT die Qualifikationsunterschiede verringerte und beschleunigte Dokumentenerstellungszeiten Gleichzeitig können Unternehmensmitarbeiter ihre Zeit effizienter nutzen. ChatGPT hilft Unternehmensmitarbeitern dabei, mehr in kürzerer Zeit zu erledigen, da die Mitarbeiter nur ungern mitteilen, wofür sie das Tool verwenden. Siebzig Prozent haben ihren Vorgesetzten nichts davon erzählt.

Reduzierung des Risikos des Verlusts von geistigem Eigentum ohne Einbußen bei der Geschwindigkeit

Das größte Risiko von ChatGPT besteht darin, dass Mitarbeiter versehentlich geistiges Eigentum (IP), vertrauliche Preis-, Kosten-, Finanzanalyse- und HR-Daten mit großen Sprachmodellen (LLMs) teilen, auf die jeder zugreifen kann. Samsung und andere Unternehmen, die versehentlich vertrauliche Daten preisgeben, sind in den Köpfen von Sicherheits- und Führungskräften immer noch frisch.

Angesichts der Dringlichkeit, mit der das Problem gelöst werden muss, und der Tatsache, dass es dabei um die Lenkung des Benutzerverhaltens geht, suchen viele Unternehmen nach generativen KI-basierten Ansätzen, um die Sicherheitsherausforderung zu lösen. Deshalb wächst das Interesse daran generative KI-Isolierung und vergleichbare Technologien, um vertrauliche Daten von ChatGPT, Bard und anderen Gen-KI-Websites fernzuhalten. Jedes Unternehmen möchte die Wettbewerbseffizienz, Geschwindigkeit und Prozessverbesserungsgewinne, die ChatGPT bietet, mit einer soliden Strategie zur Risikoreduzierung in Einklang bringen.

Siehe auch  ChatGPT hat früher bei PSC-Prüfungen in T'gana geschummelt | Indien-Nachrichten

VentureBeat sprach mit Alex Philips, CIO bei National Oilwell Varco (NOV), letztes Jahr über den Ansatz seines Unternehmens zur generativen KI. Philips teilte VentureBeat mit, dass er die Aufgabe übernommen habe, seinen Vorstand über die Vorteile und Risiken von ChatGPT und generativer KI im Allgemeinen aufzuklären. Er sagte gegenüber VentureBeat, dass er den Vorstand regelmäßig über den aktuellen Stand der Gen-KI-Technologien informiert, einschließlich der Frage, wie NOV mit dem geringsten Risiko den größtmöglichen Nutzen aus der neuen Technologie ziehen kann. Dieser kontinuierliche Aufklärungsprozess trägt dazu bei, Erwartungen an die Technologie zu wecken und zu klären, wie NOV Schutzmaßnahmen ergreifen kann, um sicherzustellen, dass es nie zu Samsung-ähnlichen Lecks kommt.

Es wird eine Reihe neuer Technologien eingeführt, um die Herausforderung zu meistern, ChatGPT-Sitzungen ohne Geschwindigkeitseinbußen zu sichern. Cisco, Ericom Security by Cradlepoints generative KI-Isolierung, Menlo-Sicherheit, KI bei Einbruch der Dunkelheit, Zauberer Und Zscaler sind einige der bemerkenswertesten neuen Systeme auf dem Markt, die Sicherheitsverantwortlichen bei der Bewältigung dieser Herausforderung helfen sollen.

Wie Anbieter die Herausforderung annehmen

Jeder der sechs großen Anbieter von Lösungen, die darauf abzielen, vertrauliche Daten aus ChatGPT-Sitzungen fernzuhalten, verfolgt einen anderen Ansatz, um Organisationen vor der Weitergabe ihrer vertraulichen Daten zu schützen. Die beiden, die am meisten Anklang finden, sind Ericom Security von Cradlepoints Generative AI Isolation und Nightfall für ChatGPT.

Der Ansatz von Cradlepoint basiert auf einem clientlosen Ansatz, bei dem Benutzerinteraktionen mit generativen KI-Sites in einem virtuellen Browser innerhalb der Ericom Cloud Platform ausgeführt werden. Laut Cradlepoint soll dieser Ansatz die Anwendung von Datenverlustschutz und Zugriffsrichtlinienkontrollen in der Cloud-Plattform ermöglichen. Durch die Gestaltung ihres Systems, das den gesamten Datenverkehr über ihre proprietäre Cloud-Plattform leitet, wird verhindert, dass persönlich identifizierbare Informationen (PII) oder andere sensible Daten an generative KI-Sites wie ChatGPT übermittelt werden. Der Ansatz von Ericom Security by Cradlepoint ist einzigartig, da er darauf ausgelegt ist, über seine Cloud-Architektur den Zugriff mit den geringsten Privilegien zu ermöglichen.

Siehe auch  Eine Stadt verabschiedet einen Gesetzentwurf von… ChatGPT!

Der Ansatz von Ericom Security by Cradlepoint zur generativen KI-Isolation konzentriert sich auf den Zugriff auf ChatGPT in einem virtuellen Browser, der in der Ericom Cloud-Plattform isoliert ist. Quelle: Ericom Security von Cradlepoint

Nightfall AI bietet drei verschiedene Lösungen für Organisationen, die ihre vertraulichen Daten vor der Weitergabe an ChatGPT und vergleichbare Websites schützen möchten. Sie bieten Nightfall für ChatGPT, Nightfall für LLMs und Nightfall für Software as a Service (SaaS). Nightfall for ChatGPT ist eine browserbasierte Lösung, die vertrauliche Daten in Echtzeit scannt und schwärzt, bevor sie offengelegt werden können. Nightfall for LLMs ist eine API, die sensible Daten erkennt und redigiert, die beim Training von LLMs verwendet werden. Nightfall for SaaS lässt sich in gängige SaaS-Anwendungen integrieren, um zu verhindern, dass vertrauliche Informationen in verschiedenen Cloud-Diensten offengelegt werden.

Figure 2 Gen Ai Protects Against Chatgpt Leaks
Wie Unternehmen Gen-Ki Nutzen, Um Sich Vor Chatgpt-Lecks Zu Schützen 2

Die Datensicherheitsplattform von Nightfall AI für generative KI hat sich als wirksam erwiesen, wenn es darum geht, sensible Daten vor der Weitergabe an gemeinfreie generative KI-Systeme zu schützen. Quelle: Nightfall.ai

Gen AI definiert jetzt die Zukunft des Wissens

Gen AI ist die Wissensmaschine, auf die jedes Unternehmen gewartet hat. VentureBeat hat erfahren, dass ein völliges Verbot von ChatGPT, Bard und anderen generativen KI-basierten Chatbots den gegenteiligen Effekt hat. Schatten-KI blüht auf, wenn die IT versucht, ihre Nutzung zu stoppen, was den Download neuer KI-Apps begünstigt und die Sicherheit vertraulicher Daten noch schwieriger macht.

Es ist gut zu sehen, dass mehr CIOs und CISOs den wissensbasierten Ansatz verfolgen, KI-basierte Systeme der Generation zu testen und dann in die Produktion zu überführen, die das Risiko auf Browserebene beseitigen können. Der Schutz des Unternehmens vor der Weitergabe von Daten durch den Einsatz einer sicheren Cloud-Architektur, wie es Cradlepoint Ericom tut, bietet den Umfang, den größere Unternehmen benötigen, um Tausende von Mitarbeitern vor der versehentlichen Weitergabe vertraulicher Daten zu schützen.

Siehe auch  Bard, der Chatbot, der ChatGPT in den Schatten stellt

Das Ziel muss darin bestehen, das hohe Innovationstempo in der Gen-KI in einen Wettbewerbsvorteil umzuwandeln. Es ist die Aufgabe der IT-Abteilung und der Sicherheit, dies zu erreichen. CISOs und Sicherheitsteams müssen über die neuesten Technologien und Techniken auf dem Laufenden bleiben, um vertrauliche, PII- und patentbasierte Daten zu schützen. Um als wissensbasiertes Unternehmen wettbewerbsfähig zu bleiben, ist es entscheidend zu wissen, welche Optionen es zum Schutz von Daten gibt und wie sie sich ändern.

„Generative KI-Websites bieten beispiellose Produktivitätssteigerungen, aber Unternehmen müssen die damit verbundenen Risiken proaktiv angehen.“ sagte Gerry Grealish, Vizepräsident der Marketing Ericom Cybersecurity Unit von Cradlepoint. „Unsere Lösung zur generativen KI-Isolation ermöglicht es Unternehmen, die perfekte Balance zu finden, das Potenzial generativer KI zu nutzen und sich gleichzeitig vor Datenverlust, Malware-Bedrohungen sowie rechtlichen und Compliance-Herausforderungen zu schützen.“

Die Mission von VentureBeat soll ein digitaler Stadtplatz für technische Entscheidungsträger sein, um sich Wissen über transformative Unternehmenstechnologie anzueignen und Transaktionen durchzuführen. Entdecken Sie unsere Briefings.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.