Von „radikalen Effizienzsteigerungen“ bis hin zu „Halluzinationen“ untersuchen wir die Auswirkungen großer Sprachmodelle wie chatgpt auf Regierungsbeamte

„Ich höre immer wieder von #ChatGPT und dachte mir, ich würde ihre diplomatischen Fähigkeiten testen, indem ich nach einer amüsanten Rede des britischen Botschafters in Frankreich über die Beziehungen zwischen Großbritannien und Frankreich frage. Sagen wir einfach, ich werde meinen Job nicht aufgeben.“

So getwittert Menna Rawlings, unsere Botschafterin in Frankreich, im März. Dem Tweet lag ein Screenshot bei, in dem der fortschrittliche Chatbot – gesellig und überzeugend – darüber sprach, wie „von den Schlachten von Waterloo und Trafalgar bis zu den Landungen in der Normandie die Briten und Franzosen Seite an Seite für die Verteidigung von Freiheit und Demokratie gestanden haben“. Auweh.

In der ChatGPT-Sprache wird dies als „Halluzination“ bezeichnet. Rawlings hatte ein bisschen Spaß, aber manchmal können Halluzinationen schädlicher sein. Im April drohte der australische Regionalbürgermeister Brian Hood damit, die Muttergesellschaft von ChatGPT, OpenAI, wegen Verleumdung zu verklagen, nachdem der Chatbot eine SMS verfasst hatte, in der er behauptete, er sei an einem Auslandsbestechungsskandal schuldig gewesen. Die Realität war genau das Gegenteil: Hood war einer der Whistleblower, die die Medien auf das Verbrechen aufmerksam machten.

OpenAI hat gewarnt, dass seine Software „manchmal plausibel klingende, aber falsche oder unsinnige Antworten schreibt“ und dass es „nur begrenzte Kenntnisse über die Welt und die Ereignisse nach 2021“ hat. Der kommende Konkurrenzdienst von google, Bard, hat einen ähnlichen Haftungsausschluss. Und doch verbessern sich diese großen Sprachmodelle (LLMs), die im Internet trainiert wurden, um in einer Vielzahl von Disziplinen einzigartige, detaillierte und menschlich klingende Antworten zu liefern, ständig. Da sie aus ihren Fehlern lernen, werden Halluzinationen immer seltener.

Seit seiner Einführung im vergangenen November erfreut sich ChatGPT großer Beliebtheit in der Öffentlichkeit – nicht zuletzt aufgrund seiner Fähigkeit, verschiedene Schreibstile nachzuahmen. Aus dem gleichen Grund wird es für Lehrer, die sich Sorgen über Schülerplagiate machen, zu einem echten Problem. Aber es zeichnet sich auch schnell ab, dass seine Auswirkungen auf die Gesellschaft weit darüber hinausgehen werden, Menschen dabei zu helfen, personalisierte Sonette, Kondolenzbriefe und sogar PowerPoint-Präsentationen zu verfassen. Neben einigen der eher apokalyptischen Warnungen, dass KI das Ende aller Tage einläuten wird, tauchen Listen aller Berufe auf, die LLMs überflüssig machen könnten – von Buchhaltern und Übersetzern bis hin zu Verwaltungsassistenten und Journalisten.

Vielleicht ist das nicht überraschend. Die Massenverarbeitungsleistung, die uns heute zur Verfügung steht, war vor 10 Jahren einfach nicht vorhanden, und die Technologie des maschinellen Lernens – mit ihrer Fähigkeit, Muster in Massen von Daten mit einer Geschwindigkeit und einem Ausmaß zu finden, von denen Menschen nur träumen konnten – hat uns in vielerlei Hinsicht übertroffen Bereiche des Berufslebens seit einiger Zeit. („KI diagnostiziert Krankheiten jetzt besser als Ihr Arzt, wie eine Studie ergab“, lautete eine Schlagzeile aus dem Jahr 2020.)

Aber die Auswirkungen der Anwendung dieser Rechenleistung auf etwas, das man grob als „Lesen und Schreiben“ bezeichnen könnte, haben selbst diejenigen in der Technologiewelt überrascht. Paul Maltby ist ehemaliger Chief Digital Officer im Department for Leveling Up, Housing and Communities und arbeitet jetzt an der KI-Beratungsfakultät.

„Das ist eine Technologie auf Internet-Niveau und keine Optimierung“, sagt Maltby. „Das ist eine wirklich große Sache. Selbst wenn es keine Weiterentwicklung gäbe, wird dies die Dinge auf unvorhersehbare Weise stören. Tatsache ist jedoch, dass es sich sehr, sehr schnell entwickelt und viel Geld, Mühe und Zeit darin steckt. Und diese LLMs bedeuten einen tiefgreifenden Wandel und, wenn wir nicht aufpassen, potenziell ziemlich gefährliche Dinge. Wir müssen also alles richtig machen.“

„Dies ist eine Technologie auf Internetebene und keine Optimierung. Das ist eine wirklich große Sache“

Diese Vorsichtsmaßnahme wurde an anderer Stelle wiederholt: Anfang Mai kündigte Geoffrey Hinton – weithin als der Pate der KI angesehen – seinen Job bei Google mit der Begründung, er bereue seine Arbeit und warnte davor, dass KI-Chatbots von „bösen Akteuren“ für ihre Zwecke eingesetzt würden „schlechte Dinge“.

Siehe auch  5 ChatGPT sorgt dafür, dass Sie sich bei der Arbeit unbesiegbar fühlen

Auch Jack Perschke, Leiter für die Entwicklung des öffentlichen Sektors beim Beratungsunternehmen Content + Cloud, ist besorgt über die potenziellen Gefahren der Technologie, hat aber eine weitgehend halbvolle Sicht auf ihre Zukunft.

In seinem aktuellen Zustand sei ChatGPT „ein erstaunlicher Partytrick“. „Es ist ein bisschen wie bei einem 14-Jährigen, der sehr schnell schreiben kann“, sagt er, bevor er die Gleichnisse wechselt. „Im Moment ist es, als hätte jemand den Verbrennungsmotor erfunden und ihn irgendwo auf einen Sockel gestellt, und jeder kann den Knopf berühren und sehen, wie sich die Kolben auf und ab bewegen, und sie sagen: ‚Wow, nicht wahr?‘ „Das ist doch eine erstaunliche Sache?“

„Aber es verändert die Welt erst wirklich, wenn die Leute anfangen, es in Autos, Flugzeuge, Motorräder und so weiter einzubauen. Und natürlich wird der Motor an diesem Punkt unsichtbar. Was Sie kaufen, ist das Auto, das Motorrad. Und genau das wird passieren. Eine Menge Fahrzeuge, Plattformen und Dinge, die wir alle nutzen, stehen kurz vor einer völligen Umgestaltung.“

CSW hat ein anderes KI-Programm, midjourney, gebeten, das Hauptbild für dieses Feature bereitzustellen. Midjourney generiert Bilder aus schriftlichen Beschreibungen und in diesem Fall haben wir ihm die folgende Eingabeaufforderung gegeben: „Ölgemälde auf Leinwand. Beamtin trägt weißes Hemd und dunkelblauen Hosenanzug, braunes Haar. Sitzen auf einem modernen Bürostuhl in einem modernen Großraumbüro. Blick auf einen Computerbildschirm, auf dem „ChatGPT“ steht. Die Software brauchte etwa 30 Sekunden, um dieses Bild zu erstellen. Wir überlassen es den Lesern, ihre eigenen Schlussfolgerungen darüber zu ziehen, warum die KI diese Entscheidungen getroffen hat, einschließlich der Größe der Barbie-Puppe der Frau und der Merkmale von Kate-Middleton. Der Adleräugige wird auch bemerken, dass sie sechs Finger zu haben scheint …

Was kann ChatGPT bereits jetzt für Beamte tun – und was könnte es für sie in Zukunft bedeuten?

Für unter Druck stehende Beamte, die versuchen, immer mehr Arbeit in immer kürzerer Zeit unterzubringen, ist ein Tool, das ihnen beispielsweise 25 % ihrer Verwaltungsaufgaben abnehmen könnte, sehr attraktiv. Was sind also – um ein klassisches Beispiel von Whitehalles zu verwenden – die Anwendungsfälle? Nun, für Beamte, die eine Beweisbasis zusammenfassen oder sich mit einem bestimmten Thema auseinandersetzen müssen, könnte ChatGPT in seiner aktuellen Form ein guter Ausgangspunkt sein. Zu den Befehlen könnten gehören: „Geben Sie mir 10 Ideen zu den Auswirkungen der Verwendung von ChatGPT im öffentlichen Dienst“ oder „Fassen Sie die Schlüsselelemente bei der Regulierung von verarbeitetem Fleisch zusammen“. Es könnte ihnen auch helfen, der Tyrannei des leeren Blattes zu entkommen, indem sie sich eine Inschrift auf der Abschiedskarte eines Kollegen ausdenken oder – flüstern Sie es leise – einen ersten Entwurf einer Ministerrede. (Siehe Beispiel hierfür auf S.79)

Siehe auch  OpenAI startete die ChatGPT-APP auf der iOS-Plattform und Apple verkündete umgehend intern: Mitarbeitern ist die Nutzung von ChatGPT im Unternehmen untersagt

Für Perschke ist es „im Moment nicht sehr sinnvoll“. Die Tatsache, dass OpenAI eine Partnerschaft mit Microsoft eingegangen ist, bedeutet jedoch, dass es bald interessant wird. „Bald wird es in Word, Excel, PowerPoint und Outlook eingebettet sein. Wenn es in Ihrem Laptop ist, wird es ein „Wow“-Gefühl sein“, sagt er.

Sensible Daten sollten niemals an diese Modelle gesendet werden, zumindest nicht ohne sorgfältiges Fachwissen. Leistungsstärkere Algorithmen wie GPT-4 können jedoch zunehmend sicher auf bestimmte – und sogar private – Informationsquellen ausgerichtet werden, wie z. B. komplexe Regulierungspapiere, Gesetze und Abteilungsdatenspeicher, um es den Modellen zu ermöglichen, bestimmte Stile zu verstehen und zu übernehmen und hohe Ergebnisse zu liefern nützliche und spezifische Antworten. Die Verwendung von Modellen auf diese Weise erfordert deren Implementierung als Teil eines diskreten digitalen Dienstes, der auf einen bestimmten Bedarf zugeschnitten ist. Dies kann auch dazu beitragen, die Ergebnisse zu validieren, indem beispielsweise eine Überprüfung der Ergebnisse mit dem breiteren Internet automatisiert und dadurch die Genauigkeit erheblich verbessert wird. Wie Maltby sagt: „Das Ergebnis wird einige radikale Effizienzsteigerungen bei der Arbeit vieler zentraler Regierungsdienste bedeuten, nicht nur bei der Art und Weise, wie Beamte ihre Zeit im Büro verbringen.“

„Ich vermute, dass wir uns in Internetjahren auf dem Niveau von 1992 befinden … Durch LLMs werden wir neue Arten von Arbeit haben, die es vorher nicht gab, und nicht nur einfachere Versionen dessen, was wir jetzt tun.“

Als er gebeten wurde, in seine Kristallkugel zu blicken und vorherzusagen, welche Stellen im öffentlichen Dienst durch die neue Technologie bedroht sein könnten, sagt Maltby, dass wir möglicherweise weniger Jobs sehen werden, bei denen es darum geht, regelmäßige Berichte zu schreiben, „die Dinge übersetzen, ohne viel Mehrwert zu schaffen“. Allerdings schlägt er auch eine optimistische Note an. Beamte werden in der Lage sein, unglaubliche Mengen an Informationen auf auffällige Weise zu scannen, und „diese Mehrwertjobs, mit denen der öffentliche Dienst bereits bis unter die Sparren gefüllt ist, werden sich übermächtig fühlen“.

Allerdings hat die Prognose ihre Grenzen. „Ich vermute, dass wir in Internetjahren auf dem Äquivalent von 1992 sind“, sagt Maltby. „Die Leute haben einfach nicht vorhergesehen, dass all die neuen Unternehmen – ganz zu schweigen von Dingen wie Musik- und TV-Streaming – entstehen würden. Ich würde sagen, es ist eine sichere Wette, dass wir durch LLMs neue Prozesse, neue Geschäftsmodelle, neue Arten von Arbeit haben werden, die es vorher nicht gab, und nicht nur einfachere Versionen dessen, was wir jetzt tun.“

Perschke seinerseits glaubt, dass dies zu einer enormen Demokratisierung von Ideen und einer neuen Ära der persönlichen Kommunikation führen könnte.

„Tatsächlich ist das geschriebene Wort seit 200 Jahren das Kommunikationsmittel der Wahl für den Menschen – angetrieben von dem Gefühl, dass es nützlich ist, wenn man etwas aufschreibt. Aber es ist tatsächlich eine schreckliche Form der Kommunikation“, sagt er und nennt als Beispiel das öffentliche Beschaffungswesen.

„Wenn die Regierung aus vielen verschiedenen Gründen – vor allem im Hinblick auf die Einhaltung von Gesetzen – etwas kaufen möchte, schreibt sie in einem umfangreichen Dokument nieder, was sie wollen. Sie schicken es an einige Leute, von denen sie glauben, dass sie ihre Anforderungen erfüllen können, und diese Leute schicken ein weiteres umfangreiches Dokument zurück, in dem erklärt wird, wie sie es machen werden. Und dann wählt die Regierung auf der Grundlage dieser Dokumente das erfolgreiche Angebot aus. Letztlich entscheidet die Regierung nach Ihrer Fähigkeit, über dieses Thema zu schreiben, und nicht nach Ihrer Fähigkeit, die Sache zu erledigen.

Siehe auch  5 Gründe, warum Sie Google Bard anstelle von ChatGPT verwenden sollten

„Es wird nicht lange dauern, bis ein Beamter des Verteidigungsministeriums einen Knopf drücken und sagen kann: ‚Schreiben Sie mir eine Ausschreibung für ein Atom-U-Boot‘, dann erhalten Sie, ein Unternehmen, das U-Boote herstellt, diese Ausschreibung und sagen Ihrem Computer, er solle diese Ausschreibung lesen.“ Geben Sie ein Angebot ab und bitten Sie es, eine erfolgreiche Antwort zu verfassen. Und die Bewerter des Verteidigungsministeriums erhalten dann 150 einwandfreie Antworten. Damit sind wir wieder da, wo wir angefangen haben: Woher wissen wir, wer am besten ein Atom-U-Boot bauen kann? Wir haben gerade eine Menge Informationen zwischen Computern ausgetauscht.

„Letztendlich wird die Regierung zu diesem Zeitpunkt sagen: ‚Wir müssen ihre Leute mit unseren Leuten in einen Raum bringen und darüber reden.‘ Und dann werden wir sie wahrscheinlich bitten, uns um das letzte Atom-U-Boot herumzuführen, das sie gebaut haben, und wir werden sehen, ob das etwas nützt. Und dann wählen wir sie danach aus, wie gut sie im Bau von Atom-U-Booten sind.“ Was – im Gegensatz dazu, Entscheidungen darauf zu stützen, wie gut Menschen über den Bau von U-Booten schreiben können – eine viel bessere Wahlmöglichkeit ist.“

„Die Massenkommunikation unter Verwendung des geschriebenen Wortes, die von den Hohepriestern der Form – Journalisten, Beamten, Anwälten, was auch immer – beurteilt wird, ist tot.“

Der Aufstieg von LLMs könnte auch wichtige Auswirkungen auf Vielfalt und Inklusion im öffentlichen Dienst haben. Im Moment sind so viele Teile des Systems – von der Prüfung von Bewerbungen bis hin zur Fähigkeit von Beamten, ihre Ideen den richtigen Leuten vorzustellen – auf diejenigen aus weißen, privilegierten Verhältnissen ausgerichtet, die darauf konditioniert wurden, in einer bestimmten Sprache zu schreiben Weg. Aber wenn jeder seine Ideen in dieselbe Software einspeisen kann, die den Stil einer perfekt geschriebenen Einreichung nachahmen kann, ist die Art und Weise, wie man etwas schreibt und formatiert, sicherlich kein Indikator mehr für den Wert der Idee im Kern.

Laut Perschke: „Die Massenkommunikation mit dem geschriebenen Wort, die von den Hohepriestern der Form – Journalisten, Beamten, Anwälten, was auch immer – beurteilt wird, ist tot.“ Es ist jetzt völlig kostenlos für alle: Jeder kann so schreiben. Wie stellen wir also Qualität her? Wir werden miteinander reden. Wir haben die Grenzen der schriftlichen Kommunikation aufgedeckt. In gewisser Weise ist es ein gewaltiger Sprung vorwärts, um rückwärts zu gehen.“

Es könnte Jahre dauern, bis diese Vision der Welt Wirklichkeit wird. Oder es könnte in ein paar Monaten bei uns sein. Aber selbst jetzt und sogar in ihren aktuellen, fehlerhaften Versionen sind ChatGPT und seine Art bemerkenswert und möglicherweise für Regierungsbeamte ziemlich nützlich. Um herauszufinden, wie nützlich es ist, lesen Sie wie CSWDie Gutachter für Beamte kamen gut zurecht, als sie darum gebeten wurden, einen Brief eines Ministers zu verfassen, eine Richtlinie zu entwerfen und sich für eine Stelle im öffentlichen Dienst zu bewerben:

4.7/5 - (238 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein