Der Boom der generativen KI hat die US-Bundesregierung erreicht, als Microsoft die Einführung seines Azure OpenAI-Dienstes ankündigte, der Azure-Regierungskunden den Zugriff auf GPT-3 und 4 sowie Einbettungen ermöglicht.

Durch den Dienst erhalten Regierungsbehörden Zugriff auf chatgpt-Anwendungsfälle, ohne „die strengen Sicherheits- und Compliance-Standards zu opfern, die sie benötigen, um staatliche Anforderungen für sensible Daten zu erfüllen“, so Microsoft erklärt in einer vorgefertigten Erklärung.

Redmond gibt an, eine Architektur entwickelt zu haben, die Regierungskunden „den sicheren Zugriff auf die großen Sprachmodelle in der kommerziellen Umgebung von Azure Government“ ermöglicht. Der Zugriff erfolgt über REST-APIs, ein Python SDK oder Azure AI Studio, ohne dass Regierungsdaten dem öffentlichen Internet zugänglich gemacht werden – zumindest sagt Microsoft.

„Nur die an den Azure OpenAI-Dienst übermittelten Abfragen werden in der kommerziellen Umgebung in das Azure OpenAI-Modell übertragen“, versprach Microsoft und fügte hinzu, dass „Azure Government direkt mit dem kommerziellen Microsoft Azure-Netzwerk und nicht direkt mit dem öffentlichen Internet oder dem Internet vernetzt.“ Microsoft-Unternehmensnetzwerk.“

Microsoft gibt an, den gesamten Azure-Verkehr mit dem Netzwerksicherheitsstandard IEEE 802.1AE – oder MACsec – zu verschlüsseln und dass der gesamte Verkehr innerhalb seines globalen Backbones aus mehr als 250.000 km Glasfaser- und Unterseekabelsystemen verbleibt.

Für diejenigen, deren Vorgesetzte sie es tatsächlich ausprobieren lassen, steht Azure OpenAI Service for Government allgemein zugelassenen Unternehmens- und Regierungskunden zur Verfügung.

Moment – ​​wie privat ist ChatGPT von der Regierung wirklich?

Microsoft hat hart daran gearbeitet, das Vertrauen der US-Regierung als Cloud-Anbieter zu gewinnen – aber es hat auch Fehltritte gemacht.

Anfang dieses Jahres wurde bekannt, dass ein Azure-Server der Regierung mehr als ein Terabyte sensibler Militärdokumente im öffentlichen Internet zugänglich gemacht hatte – ein Problem, für das sich das Verteidigungsministerium und Microsoft gegenseitig die Schuld gaben.

Siehe auch  Das ist Amazons ChatGPT-Konkurrent – ​​soll den Arbeitsalltag erleichtern

Auch in puncto Sicherheit war die Microsoft-Tochter und ChatGPT-Entwickler OpenAI alles andere als perfekt, da eine fehlerhafte Open-Source-Bibliothek im März dazu führte, dass einige Benutzer-Chat-Datensätze offengelegt wurden. Seitdem haben eine Reihe bekannter Unternehmen – darunter apple, Amazon und mehrere Banken – die interne Nutzung von ChatGPT verboten, weil sie befürchten, dass dadurch vertrauliche interne Informationen preisgegeben werden könnten.

Der britische Geheimdienst GCHQ hat sogar vor solchen Risiken gewarnt. Hat die US-Regierung also Recht, Microsoft ihre Geheimnisse anzuvertrauen, auch wenn diese offenbar nicht an ein nicht vertrauenswürdiges Netzwerk übermittelt werden?

Microsoft sagte, dass es Regierungsdaten nicht speziell zum Trainieren von OpenAI-Modellen verwenden werde, daher bestehe wahrscheinlich keine Chance, dass streng geheime Daten in einer Antwort preisgegeben werden, die für jemand anderen bestimmt sei. Das bedeutet jedoch nicht, dass es standardmäßig sicher ist. Microsoft räumte in der Ankündigung umständlich ein, dass einige Daten dennoch protokolliert werden, wenn staatliche Nutzer OpenAI-Modelle nutzen.

„Microsoft ermöglicht Kunden, die zusätzliche Berechtigungskriterien für eingeschränkten Zugriff erfüllen und bestimmte Anwendungsfälle bestätigen, die Änderung der Azure OpenAI-Inhaltsverwaltungsfunktionen zu beantragen“, erklärte Microsoft.

„Wenn Microsoft die Anfrage eines Kunden zur Änderung der Datenprotokollierung genehmigt, speichert Microsoft keine Eingabeaufforderungen und Vervollständigungen im Zusammenhang mit dem genehmigten Azure-Abonnement, für das die Datenprotokollierung in Azure Commercial deaktiviert ist“, fügte es hinzu. Dies bedeutet, dass Eingabeaufforderungen und Vervollständigungen – der vom KI-Modell zurückgegebene Text – beibehalten werden, es sei denn, eine Regierungsbehörde erfüllt bestimmte Anforderungen spezifische Kriterien.

Wir haben Microsoft um Klarstellung gebeten, wie KI-Aufforderungs- und Abschlussdaten von Regierungsanwendern gespeichert werden sollen, aber ein Sprecher verwies uns nur auf die ursprüngliche Ankündigung des Unternehmens, ohne direkte Antworten auf unsere Fragen.

Siehe auch  ChatGPT beherrschen: Geschäftsanwendungen | Thomas Fox – Compliance-Evangelist

Da private Unternehmen befürchten, dass Abfragen allein ausreichen könnten, um Geheimnisse preiszugeben, hat Microsoft alle Hände voll zu tun, bevor die Regierung damit beginnt, Mitarbeitern mit Zugang zur Azure-Regierung – Behörden wie dem Verteidigungsministerium und der NASA – zu gestatten, diese zu nutzen, um Antworten von einer KI zu erhalten mit einer Lügengeschichte. ®

4.8/5 - (229 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein