Als das chatgpt-Tool von OpenAI Anfang dieses Jahres in den Mainstream vordrang, stellte das US-Landwirtschaftsministerium fest, dass das generative künstliche Intelligenz-Tool ein zu hohes Risiko für die Verwendung in seinem Netzwerk darstellte, und verbot seine Verwendung, wie aus von FedScoop erhaltenen Dokumenten hervorgeht.
Im Oktober, sieben Monate nach dieser Risikofeststellung, verteilten die Abteilungsleiter vorläufige Richtlinien, die dieses Verbot auf die Nutzung generativer KI-Tools von Drittanbietern durch Mitarbeiter und Auftragnehmer in ihrer offiziellen Funktion und auf Regierungsgeräten ausweiteten. Die Behörde richtete außerdem ein Gremium ein, das einen Prozess zur künftigen Prüfung vorgeschlagener Einsatzmöglichkeiten der Technologie erstellt, wie aus Dokumenten hervorgeht, die im Rahmen einer Anfrage nach dem Freedom of Information Act und der Antwort des Ministeriums an FedScoop erhalten wurden.
Informationen über den Ansatz des USDA kommen zu einem Zeitpunkt, zu dem sich Behörden in der gesamten Bundesregierung mit der Erstellung von Richtlinien für generative KI-Tools in ihren Behörden auseinandersetzen und zu unterschiedlichen Schlussfolgerungen darüber kommen, wie mit der aufkommenden und schnell wachsenden Technologie umzugehen ist.
Das Department of Homeland Security hat beispielsweise kürzlich seine bedingte Genehmigung generativer KI-Tools für den Einsatz im Ministerium veröffentlicht, darunter ChatGPT, Bing Chat, Claude 2 und DALL-E2. Unterdessen teilten NASA-Führungskräfte den Mitarbeitern im Mai mit, dass die Tools nicht für die weit verbreitete Verwendung mit „sensiblen NASA-Daten“ freigegeben seien, obwohl sie die Verwendung auf persönlichen Konten „nach akzeptablen Nutzungsrichtlinien“ erlaubten.
Ein Sprecher des Landwirtschaftsministeriums teilte FedScoop in einer per E-Mail gesendeten Erklärung mit, dass die vorläufigen Leitlinien der Agentur zusammen mit der KI-Verordnung des Weißen Hauses „dazu beitragen werden, sicherzustellen, dass das USDA wie andere Behörden in der Bundesregierung diese neue, wichtige Technologie sicher und geschützt nutzt.“ , und zwar verantwortungsbewusst, und liefert gleichzeitig bessere Ergebnisse für die Menschen, die sich auf seine Programme und Dienste verlassen.“
Laut der von FedScoop erhaltenen Risikoermittlung vom 16. März stellte die Abteilung fest, dass „ChatGPT mehrere besorgniserregende Indikatoren und Schwachstellen aufweist, die ein Risiko darstellen, wenn es in der USDA-Unternehmensnetzwerkinfrastruktur verwendet wird“, und stufte dieses Risiko letztendlich als „hoch“ ein.
Konkret bezog sich die Risikoermittlung auf a Verletzlichkeit in der National Vulnerability Database dokumentiert, bei dem es um ein WordPress-Plugin geht, das offenbar ChatGPT verwendet. In der Feststellung heißt es, dass die Sicherheitslücke „eine fehlende Berechtigungsprüfung beschreibt, die es Benutzern ermöglicht, auf Daten zuzugreifen oder Aktionen auszuführen, die verboten sein sollten.“ Es wies auch auf „unzureichende Sicherheitsvorkehrungen“ hin.
„Obwohl OpenAI behauptet, Sicherheitsmaßnahmen zur Minderung dieser Risiken getroffen zu haben, zeigen Anwendungsfälle, dass böswillige Benutzer diese Sicherheitsmaßnahmen umgehen können, indem sie Fragen oder Anfragen anders stellen, um die gleichen Ergebnisse zu erzielen“, heißt es in der Risikoermittlung. „Die Verwendung von ChatGPT birgt das Risiko von Sicherheitsverletzungen oder Vorfällen im Zusammenhang mit eingegebenen Daten [into] Das von Benutzern bereitgestellte Tool umfasst kontrollierte, nicht klassifizierte Informationen (CUI), proprietäre Regierungsdaten, regulierte Daten aus dem Lebensmittel- und Landwirtschaftssektor (FA) und persönliche vertrauliche Daten.“
Als Antwort auf eine FedScoop-Anfrage zur Entschlossenheit des USDA sagte ein Sprecher von OpenAI, das Unternehmen sei nicht mit dem genannten WordPress-Plugin verbunden. Der Sprecher verwies auch auf die jüngste Einschätzung des DHS, wonach generative Tools unter Auflagen genehmigt wurden, und wies auf die Einführung von ChatGPT Enterprise hin, das über zusätzliche Sicherheits- und Datenschutzkontrollen verfügt.
„Wir schätzen das Engagement der US-Regierung, KI sicher und effektiv einzusetzen, um die Dienstleistungen für die Öffentlichkeit zu verbessern. Wir würden uns freuen, über die sichere Verwendung unserer Produkte zu sprechen, um die Arbeit des USDA zu unterstützen“, sagte der Sprecher.
Gemäß der vorläufigen Anleitung des USDA, die am 16. Oktober intern verteilt wurde, umfasst das Generative AI Review Board Vertreter des Chief Data Officer und des Chief Technology Officer des USDA sowie Vertreter für Cybersicherheit, das Büro des General Counsel und zwei Missionsbereiche.
Seit der Durchführungsverordnung von Präsident Joe Biden wurde der CDO und verantwortliche KI-Beamte des Ministeriums, Chris Alvarez, zum Chief AI Officer ernannt und ist in dieser Funktion auch Mitglied des Vorstands, sagte der Sprecher. Dies geschieht, da die Behörden beginnen, CAIOs im Lichte einer neuen Position zu benennen, die auf Bidens Anordnung und der anschließenden Anleitung des Weißen Hauses geschaffen wurde.
Der Vorstand werde sich monatlich treffen, heißt es in dem Dokument, und innerhalb von 90 Tagen, also etwa Mitte Januar, einen Prozess zur Prüfung vorgeschlagener generativer KI-Projekte einführen. Darin wurde außerdem festgelegt, dass „alle Anwendungsfälle, die sich zum Zeitpunkt dieses Memos derzeit in der Entwicklung oder im Einsatz befinden, bis zur Überprüfung durch das Generative AI Review Board pausiert werden sollten“, und es wurde ausdrücklich darauf hingewiesen, dass die Nutzung von KI-Sprachübersetzungsdiensten verboten ist.
Die Übermittlung persönlich identifizierbarer oder nicht öffentlicher Informationen an öffentliche generative KI-Tools sei „eine verbotene Weitergabe geschützter Informationen“, die Mitarbeiter melden müssen, heißt es in dem Dokument. Der Sprecher sagte, es seien keine Fälle bekannt, in denen personenbezogene Daten des USDA an ein generatives KI-Tool übermittelt wurden, und „das USDA hat keine Berichte über unangemessene GenAI-Ausgaben erhalten.“
Rebecca Heilweil hat zu diesem Artikel beigetragen.