Eines der prägenden Merkmale der frühen 2020er Jahre war bisher die Besessenheit der Technologiebranche von der Technologie der Zeit. Dabei handelt es sich in der Regel um verherrlichte Systeme zum schnellen Reichwerden wie NFTs oder Kryptowährungen, die jeweils einen Hype auslösen, bevor die Blasen platzen, und die Anleger im Regen stehen lassen. Das Neueste in dieser langen Reihe von Obsessionen ist Sprachlernmodelleoder KI, wie es in letzter Zeit häufiger genannt wird.

Sprachlernmodelle sind Computerprogramme, die Daten in Form schriftlicher Arbeiten aufnehmen und diese dann mithilfe von Wörtern in eine Wahrscheinlichkeitsverteilung umwandeln, um andere Formen der schriftlichen Verwendung zu erzeugen. Dabei handelt es sich nicht wirklich um künstliche Intelligenz, sondern eher um eine Art Marketingjargon, den Technikfreaks verwenden, um ihre Sprachalgorithmen für die breite Öffentlichkeit attraktiver zu machen.

Aber egal wie wir es nennen: Sprachlernmodelle stellen eine Bedrohung für den queeren Journalismus dar, die wir sehr ernst nehmen sollten.

Mehrere Online-Publikationen haben bereits Schritte unternommen, um von „KI“ produzierten Journalismus zu produzieren. Es ist nicht immer gut gelaufen (siehe Gizmodo-Artikel über Star Wars das ging viral, weil es unglaublich inkohärent war, oder das Neueste Reiseartikel von Microsoft die den Touristen in Ottawa vorschlug, die örtliche Lebensmittelbank der Stadt zu besuchen). Es ist leicht zu erkennen, warum Medieninhaber so an Sprachlernmodellen interessiert sind. Autoren und Redakteure sind teuer, Computer sind in der Anschaffung und im Betrieb deutlich günstiger. Wenn Sie schriftliche Arbeiten erstellen können, die Aufmerksamkeit erregen, ohne dafür echte Menschen zu bezahlen, könnten Sie Ihre Gewinne drastisch steigern.

Das sehen wir auch beim aktuellen WGA-Streik, bei dem künftige KI-Schreibpraktiken heftig umstritten sind.

Aber das ist auch mit unermesslichen Kosten verbunden. Es würde das menschliche Element hinter den Worten, die Schriftsteller produzieren, auslöschen und die literarische und journalistische Innovation ersticken. Sprachlernmodelle benötigen zwangsläufig Zeichenfolgen von Eingabewörtern, um eine effektive Ausgabe zu erzielen. Wenn unser gesamter zukünftiger Journalismus von Computern produziert wird, wird er im Wesentlichen aus wiederverwendeten Wörtern und Phrasen bestehen, ohne jegliche Veränderung.

Ich beschäftigte mich zum ersten Mal mit dieser Frage nach einem Gespräch mit einem anderen befreundeten Schriftsteller. Sie erklärte, dass sie chatgpt fragen könne, a prominentes Sprachlernmodell, um einen von ihr selbst verfassten Artikel zu schreiben. Das Programm würde etwas produzieren, das sich wie etwas liest, das sie geschrieben haben könnte – aber es war leer und es mangelte an Kohärenz. Das Programm verwendete einige ihrer gebräuchlicheren Ausdrücke wieder, lieferte jedoch kein Argument, das sie selbst vorgebracht hätte.

Neugierig geworden, habe ich mich Anfang dieser Woche bei ChatGPT selbst angemeldet und darum gebeten, „einen 700-Wörter-Artikel von Katelyn Burns über Transsportler zu schreiben“, ein Thema, über das ich während meiner achtjährigen Karriere als Journalistin häufig geschrieben habe. Was das Programm hervorgebracht hat, hat mir den Atem geraubt.

„Das Programm brachte zahlreiche gefälschte Zitate hervor, die angeblich von mir stammten.“

Die Arbeit las sich wie etwas, das ich schreiben würde. Es entsprach der Kadenz und der üblichen Satz- und Absatzstruktur, die ich am häufigsten verwende. Aber die Worte waren leer und voller Plattitüden über allgemeine Inklusivität. Es gab dort nichts über die komplexe Hormonwissenschaft, die von der Öffentlichkeit häufig missverstanden wird und die ein Grundpfeiler meiner Arbeit zu diesem Thema war.

Siehe auch  Bac scheiterte zum 27. Mal, Lehrer gegen ChatGPT, Haare der Senatoren, Kugelstoßer im 100-m-Hürdenlauf

Das Schlimmste war, dass das Programm zahlreiche gefälschte Zitate hervorbrachte, die angeblich von mir persönlich stammten. Am Ende googelte ich jedes zugeschriebene Zitat und stellte fest, dass ich diese Wörter und Sätze nie geschrieben hatte.

Meine anfängliche Sorge war, dass ein Verleger eines Tages die Arbeit, die ich produziere, haben könnte, ohne mich dafür bezahlen zu wollen. ChatGPT und andere Sprachlernmodelle bieten ihnen die Möglichkeit, mich, mein Gehirn und meine Arbeit zu ihrem eigenen Vorteil aus dem Bild zu streichen. Ich bin bereits ein Freiberufler und lebe am untersten Rand der Mittelschicht – eine umfassendere Einführung sprachbasierter KI könnte für mich persönlich verheerende Folgen haben.

Aber je mehr ich darüber nachdachte, desto wütender wurde ich. Die meisten Medienorganisationen werden von Cishet-Leuten geführt, insbesondere auf der Eigentümerebene. Aber mit Sprach-KI-Programmen können sie jetzt „queere“ Perspektiven erhalten, an denen keine queeren Menschen beteiligt sind, indem sie einfach einen Computeralgorithmus laden, der die Worte queerer Menschen stiehlt.

Wenn wir die Prämisse akzeptieren, dass gelebte Erfahrungen unseren Journalismus verbessern, insbesondere für marginalisierte Bevölkerungsgruppen, dann würde der Rückgriff auf einen Computeralgorithmus diese Dynamik zunichte machen. Ein Computer spürt oder erfährt keine Diskriminierung, er kann nur auf zuvor geschriebene Arbeiten zurückgreifen und seine Programmierung nutzen, um ähnliche Sätze zu reproduzieren. Wenn ein neues Problem auftaucht, wie es in den letzten Jahren bei Transsexuellen der Fall war, können Computer keine eindeutige Meinung generieren, die auf persönlichen oder sogar beruflichen Erfahrungen basiert.

Darüber hinaus gibt es noch das Problem der Genauigkeit. Angesichts der Flut falscher Informationen, die in letzter Zeit in der Presse zu Transsexuellen-Themen verbreitet werden, können wir einem Computer nicht vertrauen, dass er zuverlässigen und genauen Journalismus erstellt. Ein Computer ist grundsätzlich nicht in der Lage, die empfangenen Eingaben auf Fakten zu überprüfen.

Siehe auch  Warum verbietet Apple seinen Mitarbeitern die Nutzung von ChatGPT?

Dies gilt nicht nur für LGBTQ2S+-Personen – jeder marginalisierte Journalist sollte sich Sorgen darüber machen, in welche Richtung die schriftlichen Medien mit KI-Programmen zum Sprachenlernen gehen. Es erinnert mich an Die kleine Meerjungfrauals Ursula Ariels Stimme für sich stahl und sie dann nutzte, um Eric von der Titelfigur abzuwerben.

KI droht, unsere kollektive Stimme als queere und transsexuelle Autoren zu kapern, indem sie unsere bisherigen Arbeiten stiehlt, um leeren, mit Plattitüden gefüllten Müll zum Nutzen reicher Cishet-Menschen zu produzieren. Dem müssen wir entgegentreten, es geht darum, unsere eigene Meinung zu schützen.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein