[ad_1]

OTTAWA – Regierungsmitarbeiter sollten sich laut neuen Richtlinien nicht auf Tools wie chatgpt verlassen, was ihr eigenes kritisches Denken beeinträchtigt, oder generative künstliche Intelligenz nutzen, um Regierungspolitik zu gestalten.

Bürokraten müssen außerdem sicherstellen, dass sie keine „geschützten, geheimen oder anderen sensiblen Informationen“ in KI-Tools einschleusen, und sicherstellen, dass die Kanadier wissen, wenn sie mit künstlicher Intelligenz interagieren und nicht mit einer echten Person, die für die Regierung arbeitet.

Diese Anzeige wurde noch nicht geladen, aber Ihr Artikel wird unten fortgesetzt.

Der am 6. September veröffentlichte Leitfaden bietet vorläufige Ratschläge dazu, wie Bundesinstitutionen generative KI-Tools nutzen können, mit denen geschriebener Text, Fotos, Videos oder Code generiert werden können. Seit der Einführung von ChatGPT vor weniger als einem Jahr nutzen Menschen in verschiedenen Branchen die Technologie unter anderem am Arbeitsplatz, um E-Mails zu schreiben, Computercode zu erstellen, Recherchen durchzuführen und beim Verfassen von Berichten zu helfen.

Im Leitfaden der Regierung heißt es, dass Bundesinstitutionen untersuchen sollten, wie sie „generative KI-Tools zur Unterstützung ihrer Abläufe und zur Verbesserung der Ergebnisse für die Kanadier nutzen könnten“. Angesichts der zunehmenden Einführung dieser Technologien werde „ihr Einsatz in der Regierung dazu beitragen, mit den Entwicklungen Schritt zu halten“. digitale Landschaft.“

Die Richtlinien weisen Beamte an, keine sensiblen oder persönlichen Informationen in Tools einzugeben, die nicht von der Regierung verwaltet werden, und keine Anfragen an Nichtregierungssysteme zu stellen, deren Offenlegung „das Vertrauen der Öffentlichkeit untergraben könnte“.

Diese Anzeige wurde noch nicht geladen, aber Ihr Artikel wird unten fortgesetzt.

Die Richtlinien warnen auch davor, KI-Tools die Arbeit auf Kosten des kritischen Denkens des Einzelnen erledigen zu lassen. „Eine übermäßige Abhängigkeit von generativen KI-Tools kann die Autonomie und das Urteilsvermögen des Einzelnen beeinträchtigen. Einige Benutzer neigen beispielsweise dazu, Systemempfehlungen oder andere Ausgaben, die falsch sein könnten, unkritisch zu akzeptieren“, sagten sie.

Siehe auch  Microsoft hat die Gründung einer Regulierungsbehörde für ChatGPT unterstützt

„Eine übermäßige Abhängigkeit von KI-Systemen kann zu einem Rückgang des kritischen Denkens führen und die Gedankenvielfalt einschränken, wodurch Kreativität und Innovation unterdrückt werden und unvollständige oder unvollständige Analysen entstehen.“

Regierungsmitarbeiter sollten nicht auf KI-Tools zurückgreifen, um Arbeiten zu erledigen, zu denen der Einzelne nicht in der Lage ist, und sie sollten sie als „Hilfsmittel, nicht als Ersatz“ nutzen.

„Bilden Sie sich Ihre eigenen Ansichten, bevor Sie Ideen oder Empfehlungen von KI-Tools einholen“, heißt es im Leitfaden.

Die Öffentlichkeit sollte auch darüber informiert werden, wenn sie mit einer Maschine oder mit einem Menschen interagiert, was dem Leitfaden zufolge für die Aufrechterhaltung des Vertrauens in die Regierung von entscheidender Bedeutung ist.

„Konversationsagenten oder Chatbots, die generative KI verwenden, können Antworten erzeugen, die so menschenähnlich sind, dass es schwierig sein kann, sie von denen einer realen Person zu unterscheiden. Dadurch könnten Klienten zu der Annahme verleitet werden, dass sie mit einem Menschen interagieren“, heißt es darin.

Diese Anzeige wurde noch nicht geladen, aber Ihr Artikel wird unten fortgesetzt.

Das Management sollte informiert werden, wenn generative KI zur Erstellung von Inhalten wie Briefing-Notizen verwendet wird, und die Person, die die Informationen erstellt, ist dafür verantwortlich, sicherzustellen, dass der Inhalt korrekt ist und keine „geschützten, geheimen oder anderen sensiblen Informationen“ in die KI-Systeme eingeschleust werden .

Ebenso können Regierungsmitarbeiter generative KI für die Programmierung nutzen, müssen aber „die Sicherheitsklassifizierung des Codes berücksichtigen“.

Beamte sollten auch bei der Erstellung von Inhalten für die öffentliche Kommunikation Vorsicht walten lassen, heißt es in dem Leitfaden. Es sei „von entscheidender Bedeutung sicherzustellen, dass die Ergebnisse angesichts der potenziellen Reichweite und Wirkung öffentlicher Kommunikation vertrauenswürdig sind.“

Siehe auch  Kann ChatGPT Ihr Leben in der Wildnis retten?

Mitarbeiter können generative KI für Forschungszwecke während der Richtlinienentwicklung nutzen, jedoch nicht, um „Richtlinien zu empfehlen, zu erstellen oder zu interpretieren“.

„Wenn Sie über politische Positionen entscheiden, treffen Sie Ihre eigenen Werturteile, in Absprache mit den relevanten Interessengruppen und im Einklang mit den geltenden Gesetzen“, heißt es in den Richtlinien. Die in diesem Prozess verwendeten Eingabeaufforderungen „sollten keine Informationen enthalten, die ein Rechts- oder Reputationsrisiko für die Regierung darstellen würden“.

Diese Anzeige wurde noch nicht geladen, aber Ihr Artikel wird unten fortgesetzt.

Der Leitfaden sieht außerdem vor, dass Bundesinstitutionen „die Instrumente auf ihr Potenzial hin bewerten sollten, Mitarbeitern zu helfen und sie nicht zu ersetzen“.

Diese Sorge äußerte kürzlich eine Gewerkschaft, die Angestellte des öffentlichen Dienstes vertritt, in einem Brief an einen Ausschuss des Unterhauses, der einen Gesetzentwurf zur KI-Regulierung untersucht. Das Professional Institute of the Public Service of Canada sagte, es sei „in Gesprächen mit dem Finanzministerium darüber informiert worden, dass es aufgrund von KI zu Entlassungen kommen würde.“

Es hieß, man sei nicht unbedingt gegen einige Arbeitsplatzveränderungen aufgrund von KI, wolle aber eine Kündigungsfrist von einem Jahr einhalten und jedem Betroffenen die Garantie eines neuen Arbeitsplatzes, einer Umschulung oder einer zusätzlichen Langzeitarbeitslosenversicherung geben.

Außerdem wurde mehr Transparenz beim Einsatz von KI durch die Regierung bei der Einstellung und Beurteilung von Beamten gefordert. „Mitarbeiterbeurteilung mit KI kann eine Form der Arbeitnehmerüberwachung beinhalten. Wir fordern vollständige Transparenz darüber, wie KI im Hinblick auf die Bewertung, Überwachung, Überwachung und Einstellung von Mitarbeitern der Bundesregierung und von Behörden eingesetzt wird“, sagte die Gewerkschaft.

Siehe auch  ChatGPT beeinträchtigt (auch) Ihre Auswahl an Reisezielen ...

PIPSC sagte außerdem, dass der Einsatz von KI, der sich auf Arbeitnehmer auswirkt, Teil des Tarifverhandlungsprozesses sein sollte. „Arbeitgeber und Gewerkschaften sollten verhandeln können, wie KI im Hinblick auf das Arbeitsleben der Arbeitnehmer eingesetzt wird“, sagte die Gewerkschaft.

Auf unserer Website finden Sie die neuesten Nachrichten, exklusive Neuigkeiten, Longreads und provokative Kommentare. Bitte setzen Sie ein Lesezeichen auf nationalpost.com und melden Sie sich hier für unseren Politik-Newsletter First Reading an.

[ad_2]

5/5 - (431 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein