Offene KIchatgpt von ist eines der leistungsstärksten Tools im Leben und wird die Art und Weise, wie viele von uns arbeiten, revolutionieren.

Doch ihr Einsatz in Unternehmen stellt immer noch ein Dilemma dar: Unternehmen wissen, dass generative KI eine Wettbewerbskraft darstellt, dennoch sind die Folgen der Weitergabe sensibler Informationen an die Plattformen erheblich.

Arbeitnehmer geben sich jedoch nicht damit zufrieden, zu warten, bis Unternehmen diese Frage geklärt haben: Viele nutzen ChatGPT bereits und geben versehentlich vertrauliche Daten preis – ohne dass ihre Arbeitgeber davon Kenntnis haben.

Unternehmen brauchen einen Gatekeeper, und Metomisch will einer sein: Das Unternehmen für Datensicherheitssoftware hat heute sein neues Browser-Plugin veröffentlicht Metomic für ChatGPTdas die Benutzeraktivität im leistungsstarken Large Language Model (LLM) von OpenAI verfolgt.

VB-Ereignis

Die AI Impact Tour – NYC

Wir werden am 29. Februar in Zusammenarbeit mit Microsoft in New York sein, um zu diskutieren, wie Risiken und Vorteile von KI-Anwendungen in Einklang gebracht werden können. Fordern Sie unten eine Einladung zur exklusiven Veranstaltung an.

Eine Einladung anfordern

„Für diese Apps gibt es keine Grenzen, es handelt sich um einen wilden Westen der Datenaustauschaktivitäten“, sagte Rich Vibert, CEO von Metomic, gegenüber VentureBeat. „Niemand hat tatsächlich überhaupt Sichtbarkeit.“

Von undichten Bilanzen bis hin zu „vollständigen Kundenprofilen“

Untersuchungen haben das gezeigt 15 % der Mitarbeiter fügen regelmäßig Unternehmensdaten in ChatGPT ein – die häufigsten Arten sind Quellcode (31 %), interne Geschäftsinformationen (43 %) und persönlich identifizierbare Informationen (PII) (12 %). Zu den wichtigsten Abteilungen, die Daten in das Modell importieren, gehören Forschung und Entwicklung, Finanzierung sowie Vertrieb und Marketing.

Siehe auch  TLC2023: Dinge im Klassenzimmer – die Höhen und Tiefen von ChatGPT

„Es handelt sich um ein völlig neues Problem“, sagte Vibert und fügte hinzu, dass bei den Unternehmen „große Angst“ herrsche. „Sie sind von Natur aus besorgt darüber, was die Mitarbeiter in diese Tools stecken könnten. Es gibt keine Eintrittsbarriere – Sie benötigen lediglich einen Browser.“

Metomic hat herausgefunden, dass Mitarbeiter Finanzdaten wie Bilanzen, „ganze Codeschnipsel“ und Anmeldeinformationen einschließlich Passwörter preisgeben. Eine der bedeutendsten Datenenthüllungen stamme jedoch von Kunden-Chat-Transkripten, sagte Vibert.

Kundenchats können stundenlang oder sogar tage- und wochenlang dauern und sich „Zeilen und Zeilen und Zeilen Text“ ansammeln, sagte er. Kundensupportteams wenden sich zunehmend an ChatGPT, um all dies zusammenzufassen, aber es ist voller sensibler Daten, darunter nicht nur Namen und E-Mail-Adressen, sondern auch Kreditkartennummern und andere Finanzinformationen.

„Grundsätzlich werden in diese Tools vollständige Kundenprofile eingefügt“, sagte Vibert.

Konkurrenten und Hacker könnten leicht an diese Informationen gelangen, und ihr Verlust könne auch zu Vertragsbrüchen führen.

Abgesehen von unbeabsichtigten Datenlecks durch ahnungslose Benutzer können andere Mitarbeiter, die möglicherweise ein Unternehmen verlassen, mithilfe von Gen-KI-Tools versuchen, Daten (z. B. Kundenkontakte oder Anmeldeinformationen) mitzunehmen. Dann gibt es noch das ganze böswillige Insider-Problem, bei dem Mitarbeiter versuchen, einem Unternehmen absichtlich Schaden zuzufügen, indem sie Unternehmensinformationen stehlen oder weitergeben.

Während einige Unternehmen dazu übergegangen sind, die Nutzung von ChatGPT und anderen konkurrierenden Plattformen durch ihre Mitarbeiter völlig zu blockieren, ist dies laut Vibert einfach keine praktikable Option.

„Diese Tools werden uns erhalten bleiben“, sagte er und fügte hinzu, dass ChatGPT einen „enormen Mehrwert“ und einen großen Wettbewerbsvorteil biete. „Es ist die ultimative Produktivitätsplattform, die die gesamte Belegschaft exponentiell effizienter macht.“

Siehe auch  China verhaftet den ersten Mann, weil er mit ChatGPT gefälschte Nachrichten erstellt hat

Datensicherheit aus Sicht der Mitarbeiter

Die ChatGPT-Integration von Metomic befindet sich in einem Browser und erkennt, wann sich ein Mitarbeiter bei der Plattform anmeldet, und führt einen Echtzeit-Scan der hochgeladenen Daten durch.

Wenn sensible Daten wie PII, Sicherheitsanmeldeinformationen oder IP erkannt werden, werden menschliche Benutzer im Browser oder auf einer anderen Plattform – wie Slack – benachrichtigt und können sensible Daten schwärzen oder entfernen oder auf Aufforderungen wie „Morgen erinnern“ oder reagieren „Das ist nicht empfindlich.“

Sicherheitsteams können auch Benachrichtigungen erhalten, wenn Mitarbeiter sensible Daten hochladen.

Vibert betonte, dass die Plattform keine Aktivitäten oder Tools blockiert, sondern Unternehmen vielmehr Transparenz und Kontrolle darüber bietet, wie diese genutzt werden, um ihre Risikoexposition zu minimieren.

„Das ist Datensicherheit aus der Sicht der Mitarbeiter“, sagte er. „Es geht darum, die Kontrolle in die Hände der Mitarbeiter zu legen und Daten an das Analyseteam zurückzugeben.“

Andernfalls sei es „nur Lärm und Lärm und Lärm“, den Sicherheits- und Analyseteams möglicherweise nicht durchschauen könnten, bemerkte Vibert.

„IT-Teams können dieses allgemeine Problem der gemeinsamen Nutzung von KI der SaaS-Generation nicht lösen“, sagte er. „Das bringt die Alarmmüdigkeit auf ein ganz neues Niveau.“

Erstaunlich viele SaaS-Apps werden verwendet

Heutige Unternehmen nutzen eine Vielzahl von SaaS-Tools: Erstaunlich 991 nach einer Schätzung – doch nur ein Viertel davon ist vernetzt.

„Wir sehen einen massiven Anstieg der Zahl der SaaS-Apps, die in allen Organisationen verwendet werden“, sagte Vibert.

Die Plattform von Metomic lässt sich mit anderen SaaS-Tools in der gesamten Geschäftsumgebung verbinden und ist mit 150 Datenklassifikatoren vorkonfiguriert, um häufige Risiken für kritische Daten basierend auf Kontext wie branchen- oder geografischen Vorschriften zu erkennen. Unternehmen können auch Datenklassifikatoren erstellen, um ihre am stärksten gefährdeten Informationen zu identifizieren.

Siehe auch  Gemischte Ergebnisse für Google, ChatGPT bei medizinischen Informationsabfragen

„Nur zu wissen, wo die Leute Daten in das eine oder andere Tool eingeben, funktioniert nicht wirklich, sondern wenn man das alles zusammenfügt“, sagte Vibert.

IT-Teams können über die reinen Daten hinaus auf „Daten-Hotspots“ in bestimmten Abteilungen oder sogar bei bestimmten Mitarbeitern blicken, erklärte er. Sie können beispielsweise feststellen, wie ein Marketingteam ChatGPT verwendet, und dies mit der Verwendung in anderen Apps wie Slack oder Notion vergleichen. Ebenso kann die Plattform feststellen, ob sich Daten am falschen Ort befinden oder für nicht relevante Personen zugänglich sind.

„Entscheidend ist die Idee, Risiken zu finden“, sagte Vibert.

Er wies darauf hin, dass es nicht nur eine Browserversion von ChatGPT gibt – in vielen Apps ist das Modell einfach integriert. Daten können beispielsweise in Slack importiert werden und landen möglicherweise auf die eine oder andere Weise in ChatGPT.

„Es ist schwer zu sagen, wo diese Lieferkette endet“, sagte Vibert. „Es mangelt völlig an Sichtbarkeit, geschweige denn an Kontrollen.“

In Zukunft wird die Zahl der SaaS-Apps weiter zunehmen, ebenso wie die Nutzung von ChatGPT und anderen leistungsstarken Gen-KI-Tools und LLMs.

Wie Vibert es ausdrückte: „Vor uns liegt noch nicht einmal der Tag Null einer langen Reise.“

Die Mission von VentureBeat soll ein digitaler Stadtplatz für technische Entscheidungsträger sein, um sich Wissen über transformative Unternehmenstechnologie anzueignen und Transaktionen durchzuführen. Entdecken Sie unsere Briefings.

5/5 - (376 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein