Laut Home Affairs waren die mehr als sieben Monate dauernden Experimente seiner Mitarbeiter mit chatgpt „allgemeiner Neugier“ vorbehalten, das Tool wurde jedoch nicht zum Schreiben von Produktionscode oder zum Treffen von Entscheidungen verwendet.

Die Abteilung hat im Mai die interne Nutzung von ChatGPT gesperrt, obwohl das Tool unter bestimmten Umständen seit November letzten Jahres verwendet werden konnte.

Nachdem die Sperrung des Zugriffs bekannt gegeben wurde, gab die IT-Abteilung der Abteilung einen Fragebogen an die Mitarbeiter heraus, um herauszufinden, wie ChatGPT genutzt wurde.

Die Ergebnisse des Fragebogens, im Rahmen der Informationsfreiheit freigegeben Der Wächter Im vergangenen Monatzeigte einige Experimente, mit denen die Codierungs- und Debugging-Funktionen von ChatGPT getestet werden sollten.

Dies führte zu einer Reihe von Fragen des Grünen-Senators David Shoebridge im Senat Anhörung Ende letzten Monats [pdf]wo er Einzelheiten zur codebezogenen Verwendung von ChatGPT einholte, bevor die Verwendung des Tools ausgesetzt wurde.

Schriftliche Antworten [pdf and pdf]In den in diesem Monat eingereichten Berichten heißt es, dass die Mitarbeiter ChatGPT im Wesentlichen nur aufgefordert haben, zu sehen, was es tun kann, jedoch nicht für Produktionszwecke.

„Die Themen, zu denen recherchiert wurde [ChatGPT] hing mit allgemeiner Neugier in Bezug auf die … Technologie, technischer Hintergrundrecherche und Fehlerbehebung sowie mit persönlichem Bewusstsein zusammen“, sagte die Abteilung.

„Aufgrund dieser ChatGPT-Abfragen wurden keine spezifischen Codes und/oder Skripte erstellt und/oder in Abteilungssysteme hochgeladen.“

Es fügte hinzu, dass „jeder Verweis auf ‚Skripte‘ und/oder ‚Code‘“ in den im Rahmen der Informationsfreiheit veröffentlichten Fragebogenantworten „allgemeiner Natur und für die Mitarbeiter fragend“ sei [to] die Funktionsweise der Technologie verstehen.“

Siehe auch  Elliptic integriert ChatGPT, um die Erkennung von Kryptorisiken zu verbessern | Blockchain24

Darüber hinaus erklärte die Abteilung, dass „es keine Beweise dafür gibt, dass irgendein Mitarbeiter ChatGPT verwendet hat, um eine formelle Entscheidung im Namen der Abteilung zu treffen“ oder „dass abteilungsbezogene oder geheime Informationen in eine ChatGPT-Suche einbezogen wurden“.

Home Affairs ging auch auf die Kritik von Shoebridge ein, dass während des Experimentierzeitraums kein formelles Register der in ChatGPT eingegebenen Eingabeaufforderungen geführt worden sei.

Shoebridge äußerte sich kritisch gegenüber der Abteilung, die mithilfe eines Fragebogens die Erinnerungen der Mitarbeiter an die Verwendung von ChatGPT einholte, möglicherweise noch lange nachdem sie es verwendet hatten, anstatt Aufzeichnungen zu führen.

In seiner schriftlichen Antwort erklärte das Innenministerium jedoch, dass experimentelle ChatGPT-Eingabeaufforderungen nicht die Schwelle erfüllten, um als „Rekord“ zu gelten.

„Eine google– oder ChatGPT-Suche gilt nicht als Geschäftsdatensatz, es sei denn, sie wirkt sich direkt auf eine von einem Beamten getroffene Entscheidung aus oder beeinflusst diese“, sagte die Abteilung und fügte hinzu: „Es gibt keine Beweise dafür“, dass dies geschehen sei.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein