103652238OpenAI sagt, dass Kundenansagen sowie Unternehmensdaten nicht für Trainingsmodelle verwendet werden.

“/>

Laut OpenAI werden Kundenanfragen und Unternehmensdaten nicht für Trainingsmodelle verwendet.

Selbst nach seiner großen Beliebtheit und Nutzung hat chatgpt bei den Unternehmensanwendern über eine Handvoll Anwendungsfälle hinaus kaum Anklang gefunden. Die meisten dieser Benutzer hatten Bedenken hinsichtlich der Sicherheit und des Datenschutzes. Tatsächlich gab es Bedenken hinsichtlich der Vertraulichkeit der Daten. Wurde in der Enterprise-Version darauf geachtet oder handelt es sich lediglich um einen Versuch, aus dem Trubel rund um die Gen-KI Kapital zu schlagen?

Was behauptet OpenAI?

OpenAI verspricht „Sicherheit auf Unternehmensniveau“ sowie die Verpflichtung, beim Training der Modelle keine kundenspezifischen Eingabeaufforderungen sowie die Daten zu verwenden. Diese auf Cybersicherheit ausgerichteten Funktionen von ChatGPT Enterprise zielen darauf ab, weit verbreitete Bedenken hinsichtlich des Schutzes geistigen Eigentums sowie der Integrität sensibler Geschäftsdaten bei der Verwendung von LLM-Algorithmen (Large Language Model) auszuräumen.

„Sie besitzen und kontrollieren Ihre Geschäftsdaten in ChatGPT Enterprise“, sagt OpenAI. „Wir trainieren nicht anhand Ihrer Geschäftsdaten oder Gespräche, und unsere Modelle lernen nicht aus Ihrer Nutzung.“

Laut OpenAI werden Kundenansagen sowie Unternehmensdaten nicht für Schulungsmodelle verwendet und alle Gespräche werden während der Übertragung und im Ruhezustand verschlüsselt. Außerdem hieß es, dass Unternehmen eine neue Konsole mit den Tools erhalten würden, die sie für die Verwaltung umfangreicher Mitarbeiter benötigen. Das Unternehmen positioniert die neue Version als die leistungsstärkste Version ohne Nutzungsbeschränkungen, mit besserer Leistungsgeschwindigkeit und Zugriff auf Datenanalysen.

Siehe auch  Warum ChatGPT Steven Soderbergh überhaupt keine Angst macht

Unternehmen benötigen ein intelligenteres Sicherheitsprogramm „Die Enterprise-Klasse sieht sehr vielversprechend aus. Das bedeutet aber auch, dass jedes Unternehmen, das ChatGPT verwendet, ein intelligenteres Sicherheitsprogramm benötigt. ChatGPT muss Teil der kritischen Computerinfrastruktur einer Organisation sein, die sie vor Diebstahl, Diebstahl, Änderungen und Missbrauch schützen muss. Das würde ich wärmstens tun.“ empfehlen die Verwendung von Zonen und Kanälen, um sicherzustellen, dass erlernte Modelle nicht von Unbefugten abgerufen werden, und gleichzeitig den uneingeschränkten Zugriff gültiger Benutzer sicherzustellen. Hacker und böswillige Insider werden versuchen, das Gelernte zu stehlen und es für andere Zwecke zu monetarisieren“, sagt Agnidipta Sarkar, ehemalige CISO der Gruppe von Biocon und Vizepräsident CISO Advisory bei ColorTokens Inc.

Wurden umfassende Penetrations- und Tests durchgeführt? Einige andere Cybersicherheitsexperten scheinen diese Beobachtungen zu bestätigen.

„Meiner Ansicht nach ist der Sicherheitsaspekt sehr wichtig. Gründliche Penetration und Tests müssen noch durchgeführt werden“, sagt Gopi Thangavel, SVP, Reliance Industries Limited und Autor zum Thema Cybersicherheit.

„Wenn man es sich überlegt, haben wir der OT IT-Sicherheitsdesigns aufgezwungen, aber jetzt scheint es, dass die Verwendung von OT-Sicherheitsprinzipien (siehe ISA 62443) in der IT sehr notwendig wäre. Wir brauchen neue Richtlinien zur akzeptablen Nutzung für den Einsatz künstlicher Intelligenz in Unternehmen.“ „Wie mein MAZE-Konzept (Mission-critical Assurance using Zero Trust Enforcement) wird die Durchsetzung von Zero Trust für die Tiefenverteidigung von entscheidender Bedeutung sein, insbesondere für kritische Infrastrukturen“, fügt Sarkar hinzu.

  • Veröffentlicht am 14. September 2023 um 10:40 Uhr IST

5/5 - (488 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein