Agentur Richtlinie oder Anleitung Risikobewertung Sandkasten Beziehung zum Anbieter generativer KI Anmerkungen DU SAGTEST Weder verboten noch genehmigt, aber Mitarbeiter wurden in einem im April verschickten Memo von der Nutzung privater Daten abgeraten. Auf eine Bitte um einen Kommentar wurde nicht geantwortet. Das Dokument wurde über FOIA erhalten. Landwirtschaft Die im Oktober 2023 herausgegebenen vorläufigen Leitlinien verbieten den Einsatz von Mitarbeitern oder Kontaktpersonen in offizieller Funktion und auf Regierungsgeräten. Einrichtung eines Prüfgremiums zur Genehmigung generativer KI-Anwendungsfälle. In einer Risikoermittlung der Agentur vom März wurde das Risiko von chatgpt als „hoch“ eingestuft. OpenAI bestritt die Relevanz einer in der Risikobewertung des USDA genannten Schwachstelle, wie FedScoop erstmals berichtete. Ausbildung Im Oktober 2023 wurden erste Leitlinien an Mitarbeiter und Auftragnehmer verteilt. Ausarbeitung umfassender Leitlinien und Richtlinien. Bedingt genehmigte Nutzung öffentlicher generativer KI-Tools. Arbeitet mit Anbietern zusammen, um eine Unternehmensplattform für generative KI zu etablieren. Zum Zeitpunkt der Anfrage nicht. Die Agentur ist sich der generativen KI-Anwendungen in der Abteilung nicht bewusst und richtet einen Überprüfungsmechanismus für zukünftige vorgeschlagene Anwendungen ein. Energie Es wurde eine vorübergehende Blockierung von Chat GPT verhängt, es wurden jedoch je nach Bedarf Ausnahmen gemacht. Sandbox aktiviert. Microsoft Azure und google Cloud. Gesundheits- und Sozialdienste Kein bestimmter Anbieter oder keine bestimmte Technologie ist ausgeschlossen, obwohl Unterbehörden wie die National Institutes of Health den Einsatz generativer KI verhindern gewisse Umstände. „Das Ministerium arbeitet kontinuierlich an der Entwicklung und Erprobung einer Vielzahl sicherer Technologien und Methoden, wie beispielsweise fortschrittlicher algorithmischer Ansätze, um Bundesmissionen durchzuführen“, sagte Greg Singleton, Chief AI Officer, gegenüber FedScoop. Heimatschutz Für öffentliche, kommerzielle Werkzeuge können Mitarbeiter eine Genehmigung einholen und an Schulungen teilnehmen. Vier Systeme, ChatGPT, Bing Chat, Claude 2 und DALL-E2, sind bedingt zugelassen. Nur zur Verwendung mit öffentlichen Informationen. In Gesprächen. Das DHS verfolgt einen separaten Ansatz für generative KI-Systeme, die direkt in seine IT-Ressourcen integriert sind, sagte CIO und CAIO Eric Hysen gegenüber FedScoop. Innere Mitarbeiter dürfen in einem generativen KI-System „keine nicht öffentlichen Daten offenlegen“, „es sei denn oder bis“ das System von der Behörde autorisiert wurde. Generative KI-Systeme „unterliegen dem Verbot des Ministeriums, nicht autorisierte Software auf behördlichen Geräten zu installieren.“ Auf eine Bitte um einen Kommentar wurde nicht geantwortet. Das Dokument wurde über FOIA erhalten. Gerechtigkeit Die bestehenden IT-Richtlinien des DOJ decken künstliche Intelligenz ab, es gibt jedoch keine separaten Leitlinien für KI. Es wurden keine Anwendungsfälle ausgeschlossen. Derzeit ist nicht geplant, eine Testumgebung zu entwickeln. Keine formellen Vereinbarungen über bestehende Verträge mit Unternehmen hinaus, die jetzt generative KI anbieten. DOJ-Sprecher Wyn Hornbuckle sagte, das kürzlich eingerichtete Emerging Technologies Board des Ministeriums werde sicherstellen, dass das DOJ „auf die Chancen und damit verbundenen Risiken aufmerksam bleibt, die von künstlicher Intelligenz (KI) und anderen neuen Technologien ausgehen.“ Zustand Erste Hinweise schließen Anwendungsfälle nicht automatisch aus. Kein Softwaretyp ist völlig verboten und generative KI-Tools können mit nicht klassifizierten Informationen verwendet werden. Derzeit wird eine maßgeschneiderte Sandbox entwickelt. Derzeit werden die Nutzungsbedingungen mit KI-Dienstanbietern geändert, um die Mission und Sicherheitsstandards des Staates zu unterstützen. Nach Angaben des Ministeriums gelten ein Kapitel im Foreign Affairs Manual sowie die Unternehmens-KI-Strategie des Staates für generative KI. Veteranenangelegenheiten Entwickelte im Juli 2023 interne Leitlinien auf der Grundlage des bestehenden Verbots der Agentur, sensible Daten auf nicht genehmigten Systemen zu verwenden. ChatGPT und ähnliche Software sind im VA-Netzwerk nicht verfügbar. Habe es nicht direkt angesprochen, sagte aber, dass die Agentur Pilotprojekte mit geringem Risiko verfolgt VA hat Verträge mit Cloud-Unternehmen, die generative KI-Dienste anbieten. Umweltschutzbehörde Im Mai 2023 wurde ein Memo veröffentlicht, in dem es hieß, dass es dem Personal untersagt sei, generative KI-Tools zu verwenden, während die Behörde „rechtliche, Informationssicherheits- und Datenschutzbedenken“ prüfte. Mitarbeiter mit „zwingenden“ Verwendungszwecken werden angewiesen, im Ausnahmefall mit dem Informationssicherheitsbeauftragten zusammenzuarbeiten. Durchführung einer Risikobewertung. Derzeit kein Prüfstand. Die EPA „erwägt mehrere Anbieter und Optionen im Einklang mit der Beschaffungspolitik der Regierung“ und „erwägt auch Open-Source-Optionen“, sagte ein Sprecher. Das Ministerium beabsichtigt, eine formellere Richtlinie im Einklang mit Bidens KI-Anordnung zu schaffen. Allgemeine Diensteverwaltung Öffentlich veröffentlicht Politik im Juni 2023 mit der Ankündigung, generative KI-Tools von Drittanbietern auf Regierungsgeräten blockiert zu haben. Einem Sprecher zufolge dürfen Mitarbeiter und Auftragnehmer öffentliche große Sprachmodelle nur für „Forschungs- oder Versuchszwecke und nicht sensible Zwecke, die Dateneingaben umfassen, die bereits öffentlich zugänglich sind, oder allgemeine Abfragen“ verwenden. LLM-Antworten dürfen nicht in Produktionsabläufen verwendet werden.“ Die Agentur habe „eine sichere virtualisierte Datenanalyselösung entwickelt, die für generative KI-Systeme verwendet werden kann“, sagte ein Sprecher. NASA In der Richtlinie vom Mai 2023 heißt es, dass öffentliche generative KI-Tools nicht für den breiten Einsatz sensibler Daten freigegeben sind. Große Sprachmodelle können in Produktionsworkflows nicht verwendet werden. Als Risiken wurden Sicherheitsprobleme und eingeschränkte Genauigkeit genannt. Derzeit wird die Technologie in einer sicheren Umgebung getestet. Nationale Wissenschaftsstiftung Leitlinien für den Einsatz generativer KI bei der Prüfung von Vorschlägen werden in Kürze erwartet; veröffentlichte außerdem Leitlinien für den Einsatz der Technologie bei der Leistungsprüfung. Eine Reihe akzeptabler Anwendungsfälle wird entwickelt. „NSF prüft Möglichkeiten zur sicheren Implementierung von GAI-Technologien innerhalb des Datenökosystems von NSF“, sagte ein Sprecher. Keine formellen Beziehungen. Nuklearregulierungskommission Im Juli 2023 veröffentlichte die Agentur eine interne Grundsatzerklärung an alle Mitarbeiter zum Einsatz generativer KI. „Einige begrenzte Risikobewertungen öffentlich verfügbarer Gen-KI-Tools“ wurden durchgeführt, um eine Grundsatzerklärung zu entwickeln, sagte ein Sprecher. NRC plant, weiterhin mit Regierungspartnern beim Risikomanagement zusammenzuarbeiten und wird an der Sicherheit und Risikominderung für die interne Umsetzung arbeiten. NRC „spricht darüber, mit dem Testen von Anwendungsfällen zu beginnen, ohne dies für die gesamte Behörde zu ermöglichen, und wir würden unsere Entwicklungs- und Testumgebungen bei der Entwicklung von Lösungen nutzen“, sagte ein Sprecher. Verfügt über eine Microsoft-Lizenz für Azure AI. NRC prüft außerdem die Implementierung von Microsoft Copilot, wenn es zur Government Community Cloud hinzugefügt wird. „Das NRC befindet sich mit generativer KI im Anfangsstadium. Wir sehen das Potenzial dieser Tools als erhebliche Zeitersparnis und tragen dazu bei, unsere behördlichen Überprüfungen effizienter zu gestalten“, sagte Basia Sall, stellvertretende Direktorin der IT Services Development & Operations Division des NRC. Büro für Personalmanagement Die Agentur arbeitet derzeit an generativer KI-Anleitung. „OPM wird außerdem mit unserem Team einen Überprüfungsprozess zum Testen, Pilotieren und Einführen generativer KI in unseren Betrieben durchführen“, sagte ein Sprecher. Kleine Betriebswirtschaft SBA ging nicht darauf ein, ob es eine spezifische generative KI-Richtlinie gibt. Ein Sprecher sagte, die Agentur befolge „strikte interne und externe Kommunikationspraktiken, um die Privatsphäre und personenbezogenen Daten kleiner Unternehmen zu schützen“. Verwaltung der sozialen Sicherheit Laut einem Agenturbericht aus dem Jahr 2023 wurde die Technologie auf behördlichen Geräten vorübergehend gesperrt Auf eine Bitte um einen Kommentar wurde nicht geantwortet.
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein