Laut einer Offenlegung ihrer Mutterbehörde, dem Verkehrsministerium, prüft die Pipeline and Hazardous Materials Safety Administration den Einsatz von chatgpt im Regelsetzungsprozess.
Laut einem Beitrag auf das öffentliche KI-Inventar der AgenturPHMSA erwägt einen „Anwendungsfall der Unterstützung künstlicher Intelligenz für die Regelsetzung“. Dem Beitrag zufolge beinhaltet das Projekt die Verwendung von ChatGPT zur Unterstützung der Regelsetzung„Prozesse, die erhebliche Effizienzsteigerungen, eine Reduzierung des Aufwands oder die Möglichkeit zur Skalierung von Anstrengungen für ein ungewöhnliches Maß an öffentlicher Kontrolle oder öffentlichem Interesse ermöglichen.“ Die Agentur teilte FedScoop mit, dass sie derzeit keine offiziellen Pläne zur Implementierung einer solchen Technologie habe.
Das Interesse der PHMSA, die Vorschriften für den Transport potenziell gefährlicher Materialien schafft, kommt ebenso wie bei anderen Behörden, darunter der NASA und das Verteidigungsministeriumbeginnen, über die Rolle generativer KI-Tools in ihrer Arbeit nachzudenken.
Dennoch wirft das Konzept der PHMSA für ein Technologie-Pilotprojekt, das ChatGPT verwenden würde, um bei der Behörde eingereichte Kommentare zu den von ihr in Betracht gezogenen Vorschriften zu analysieren, Bedenken darüber auf, welche Rolle, wenn überhaupt, die Technologie im Regulierungsprozess spielen sollte, so ein Experte für KI und Bürgerrechte .
„Die Vorstellung, dass Behörden ein für sachliche Ungenauigkeiten berüchtigtes Tool zur Entwicklung von Regeln nutzen, die willkürliche und kapriziöse Regelsetzungsprozesse verbieten, ist besorgniserregend“, sagt Ben Winters, Anwalt und Leiter des KI- und Menschenrechtsprojekts bei Electronic Privacy Information Center, sagte in einer E-Mail an FedScoop. „Insbesondere die PHMSA, deren Vorschriften sich häufig auf die potenziell lebensverändernde Exposition gegenüber gefährlichen Stoffen beziehen.“
Aus dem KI-Inventar des Verkehrsministeriums geht hervor, dass der OpenAI-Chatbot zur Durchführung einer Stimmungsanalyse von Kommentaren verwendet wird, die an die Behörde zu vorgeschlagenen Regeln gesendet werden. Das Tool könnte zur Analyse der „Relevanz“ der Kommentare, zur Bereitstellung einer „Zusammenfassung“ der Kommentare, zur „Katalogisierung von Kommentaren“ und zur Identifizierung von Duplikaten verwendet werden.
Auf die Frage nach dem Anwendungsfall betonte PHMSA, dass sich das Projekt noch in einem sehr frühen Stadium befinde.
„PHMSA untersucht wie viele andere Bundesbehörden den verantwortungsvollen und ethischen Einsatz von KI durch begrenzte Pilot- und Demonstrationsprojekte“, sagte die Behörde in einer Erklärung gegenüber FedScoop. „Diese Pilotprojekte und Projekte sollen die Übereinstimmung mit den jüngsten Leitlinien der Regierung zum angemessenen Einsatz von KI in der Bundesregierung sicherstellen.“
Die Agentur fuhr fort: „Derzeit nutzt PHMSA keine generativen KI-Tools oder kommerziellen Software für generative KI wie OpenAI und plant auch nicht, dies zu tun, um den Prozess der Regelsetzung zu beeinflussen.“ PHMSA arbeitet mit unseren Stakeholdern zusammen, um sowohl kurz- als auch langfristige Risiken generativer KI zu bewerten.“
Im KI-Inventar der Agentur, das zuletzt im Juli aktualisiert wurde, wird das Projekt als „eine Pilotinitiative“ beschrieben, die „geplant“ und „nicht in Produktion“ ist.
Winters von EPIC stellte die Frage, ob ChatGPT eine geeignete Technologie für den Regelsetzungsprozess sei. Er argumentierte, dass die Relevanzanalyse letztendlich dazu führen könnte, dass eine Behörde einen neuen Punkt übersieht, den sie zuvor nicht berücksichtigt hatte, und fügte hinzu, dass die Stimmungsanalyse keine „relevante Überlegung“ im Regelsetzungsprozess des Verwaltungsverfahrensgesetzes sei.
„[S]Zusammenfassungen von ChatGPT sind anfällig für sachliche Ungenauigkeiten und verfügen über einen begrenzten und veralteten Informationsbestand“, sagte er. „Die meisten dieser Funktionen konnten von ChatGPT nicht zuverlässig erreicht werden.“
OpenAI antwortete zum Zeitpunkt der Veröffentlichung nicht auf eine Bitte um Stellungnahme.
Es gibt andere Fälle, in denen die KI-Aktivitäten des DOT, zumindest wie sie im offiziellen KI-Inventar der Behörde beschrieben sind, Fragen aufgeworfen haben. Anfang dieses Jahres hat die Abteilung google.com/search?client=safari&rls=en&q=fedscoop+chatgpt&ie=UTF-8&oe=UTF-8″>einen Verweis entfernt an das Flugverkehrsamt der Federal Aviation Administration, das ChatGPT für Unterstützung beim Code-Schreiben als Antwort auf FedScoop-Fragen nutzt.
Stanford-Forscher hervorgehoben Es gab Ende letzten Jahres große Probleme im KI-Inventar-Compliance-Prozess. FedScoop hat über anhaltende Probleme im Zusammenhang mit diesen Inventaren und den von ihnen aufgedeckten KI-Anwendungsfällen berichtet.
Madison Alder trug zur Berichterstattung bei.