Entsprechend Deloitte42 % der Unternehmen experimentieren derzeit mit generativer KI und 15 % integrieren sie aktiv in ihre Geschäftsstrategie. Es ist kein Geheimnis, dass künstliche Intelligenz (KI) unsere Arbeitsweise verändert. In nur wenigen Jahren helfen neue Chatbots, generative KI und andere Tools Benutzern dabei, Arbeitsabläufe zu rationalisieren, Geschäftsprozesse zu optimieren, personalisierte Inhalte in großem Maßstab zu erstellen und Code effizienter zu gestalten.
Die rasante Entwicklung und Einführung von KI-Tools verändert jedoch auch die Cybersicherheitslandschaft – und erfordert von Unternehmen ein Umdenken, wie sie Benutzer, Daten und Systeme vor böswilligen Angriffen schützen können. Tatsächlich ergab die Deloitte-Umfrage, dass das Risiko generativer KI und interne Kontrollen die größten Bedenken bei der Einführung der neuen Tools waren Die Biden-Regierung hat kürzlich Richtlinien herausgegeben Informationen zur sicheren Aktivierung generativer KI-Tools.
Generative KI-Risiken verändern die Cybersicherheitslandschaft
Da die Benutzer sich beeilen, die Vorteile dieser neuen Tools zu nutzen, nehmen sich nur wenige Menschen die Zeit, darüber nachzudenken, wie die generative KI das Unternehmen einem großen Risiko aussetzt. Es ist wichtig zu bedenken, dass KI durch die Daten lernt, die Benutzer in sie eingeben. Dazu gehören Rohdaten – wie Quellcode, Kundeninformationen, technische Spezifikationen, Branding, Nachrichten und Positionierung sowie andere geschützte Informationen. KI-Tools nutzen diese Informationen, um die Ausgabe für andere Benutzer – einschließlich böswilliger Akteure – zu informieren.
Beispielsweise wurde berichtet, dass a chatgpt-and-other-chatbots-for-employees-after-sensitive-code-leak/?sh=21e856476078″ rel=“noreferrer noopener“>Samsung-Ingenieur hat internen Quellcode in ChatGPT eingefügt, um Fehler zu identifizieren. Während der Ingenieur den Code möglicherweise effizienter gestaltet hat, können die Informationen nun zum weiteren Trainieren von Modellen und zur Bereitstellung an andere Benutzer verwendet werden – wodurch möglicherweise sensible technische Daten der Konkurrenz preisgegeben werden. Und da das Internet ewig existiert, ist es höchst unwahrscheinlich, dass Samsung jemals in der Lage sein wird, die Daten dieser Modelle zu löschen – selbst wenn ChatGPT-Besitzer bereit wären, mitzuhelfen.
Selbst scheinbar harmlose Informationen – wie ein Firmenlogo, Nachrichten und Positionierung sowie Geschäftsstrategien – können böswilligen Akteuren dabei helfen, überzeugender zu wirken Phishing E-Mails, falsche Anmeldeformulare oder Adware. Mit Zugriff auf das richtige Quellmaterial kann ChatGPT ziemlich überzeugende Fälschungen erstellen, mit denen Benutzer dazu verleitet werden können, auf einen Link in einer E-Mail zu klicken oder ihre Anmeldeinformationen in ein gefälschtes Formular einzugeben.
Best Practices für generative KI-Sicherheit
Unternehmen haben auf Risiken der generativen KI so reagiert, wie sie immer auf neue Dinge reagieren: Sie blockieren sie. Neben Samsung ergab eine aktuelle Umfrage von Brombeere zeigt, dass 75 Prozent der Unternehmen derzeit ein Verbot von ChatGPT und anderen generativen KI-Anwendungen am Arbeitsplatz einführen oder erwägen. Sogar ganze Länder verhängen Verbote als Problem der öffentlichen Sicherheit. Das ist alles schön und gut und verbessert wahrscheinlich die Sicherheitslage dieser Unternehmen im Bereich der generativen KI. Das Verbot der Verwendung dieser Tools beeinträchtigt jedoch Innovation, Produktivität und Wettbewerbsfähigkeit.
Glücklicherweise gibt es einen Mittelweg. Hier sind drei Schritte, die Sie unternehmen können, um die Verwendung von ChatGPT und anderen generativen KI-Tools zu ermöglichen, ohne das Unternehmen einem erhöhten Risiko auszusetzen:
1. Informieren Sie die Benutzer
Bei jeder neuen Technologie verstehen die meisten Benutzer nicht, wie generative KI-Tools funktionieren und warum sie mit den in sie eingegebenen Inhalten vorsichtig sein sollten. Wenn Sie sie darüber aufklären, wie ihre Eingaben für künftige Anfragen verwendet werden, werden sie zweimal darüber nachdenken, ob sie proprietäre Informationen einfügen sollen. Ingenieure wissen, dass sie den Quellcode nicht in einem öffentlichen Forum teilen sollten, und es ist für sie kein großer Schritt, die gleiche Logik auf die generative KI anzuwenden, sobald sie die Gefahr erkannt haben.
2. Implementieren Sie (DLP-)Richtlinien
Sobald Benutzer den Zusammenhang zwischen generativen KI-Tools und potenziellem Datenverlust erkannt haben, ist es ein logischer nächster Schritt, die DLP-Richtlinien auf diese Tools auszuweiten. Die Infrastruktur ist bereits in Datennutzungsrichtlinien kodifiziert und bietet eine Grundlage für den Schutz des Unternehmens vor dem Verlust proprietärer Daten in generativen KI-Tools.
3. Gewinnen Sie Sichtbarkeit und Kontrolle
Es besteht auch die Möglichkeit, DLP-Richtlinien über die bloße Suche nach Schlüsselwörtern hinaus zu erweitern. Sie benötigen einen mehrschichtigen Ansatz, der Ihnen Einblick in die Interaktion der Benutzer mit diesen generativen KI-Tools und die Kontrolle gibt, um zu verhindern, dass sie etwas Unvorsichtiges tun. Dazu gehören bessere Erkennungsfunktionen und die Möglichkeit, Benutzer daran zu hindern, große Textblöcke in Webformulare einzufügen.
Ein Weg nach vorne
Generative KI-Tools machen Benutzer effizienter, produktiver und innovativer – stellen aber auch ein erhebliches Risiko für das Unternehmen dar. Das bloße Blockieren dieser Tools führt zu einem Wettbewerbsnachteil. Daher benötigen Cybersicherheitsteams eine differenzierte Strategie zum Schutz von Benutzern, Daten und Systemen. Die Schulung der Benutzer, die Ausweitung der DLP-Richtlinien auf die neue Technologie und die anschließende Erlangung von Transparenz und Kontrolle über die Interaktionen der Benutzer mit generativen KI-Tools können Cybersicherheitsteams dabei helfen, das Unternehmen besser zu schützen, ohne die Produktivität einzuschränken.
Die Post Sicherheit geht vor: 3 Schritte zur Aktivierung von ChatGPT und anderen generativen KI-Tools erschien zuerst auf Menlo-Sicherheit.
*** Dies ist ein syndizierter Blog von Security Bloggers Network Menlo-Sicherheit Verfasst von Negin Aminian. Lesen Sie den Originalbeitrag unter: https://www.menlosecurity.com/blog/3-steps-enable-chatgpt-other-generative-ai/