Mit chatgpt können Sie in Sekundenschnelle ein Gedicht verfassen. Sie können ihn dann bitten, dasselbe Gedicht im Stil von Donald Trump umzuschreiben. Es wäre großartig, im Großen und Ganzen. Sie könnten ChatGPT verwenden, um beim Verfassen einer Nachricht zu helfen. Oder eine Fake-News-Story mit erfundenen Zitaten von nicht existierenden Personen.
Eigentlich ist alles möglich, aber jede neue Technologie birgt das Potenzial für Missbrauch.
Letzte Woche veröffentlichten über ein Dutzend Lokalzeitungen gleichzeitig online einen „Meinungsartikel“, in dem sie fragten, ob Flüchtlinge Irland verlassen sollten. Der gesamte Artikel mit dem Titel „Sollten Flüchtlinge in Irland nach Hause gehen?“ wurde mit dem generativen KI-Tool ChatGPT geschrieben und unter Titeln wie veröffentlicht
, und das die Teil von Iconic Media sind, einer Tochtergesellschaft des britischen Medienkonzerns Mediaforce.Die Entscheidung war verwirrend und bizarr. Es war ein perfektes Beispiel dafür, wie KI in einem journalistischen Kontext nicht eingesetzt werden sollte, und es war höchst unverantwortlich, Flüchtlinge als Material für Inhalte zu verwenden.
Der Artikel wurde später geändert und mit einer neuen Überschrift versehen, in der gefragt wurde, ob wir der KI „vertrauen“ können. Eine gute Frage und nur eine von vielen, die sich aus dieser Episode ergeben.
Der Einsatz generativer KI im Journalismus bietet möglicherweise großes Potenzial zur Unterstützung der Nachrichtenproduktion, wirft jedoch auch ethische Fragen in Bezug auf Transparenz, Genauigkeit und Voreingenommenheit auf, ganz zu schweigen davon, wie sich dies auf die Rolle von Journalisten auswirken kann.
Der derzeitige Konsens scheint darin zu bestehen, dass KI bei manchen Nachrichtenredaktionsprozessen hilfreich sein kann, aber nicht dazu verwendet werden sollte, den Kern der Arbeit von Journalisten wie Berichterstattung und Schreiben, Faktenprüfung von Informationen, Hinzufügen von Kontext und Bereitstellung von Analysen in ihren Texten zu ersetzen.
In diesem Fall versuchte der Artikel über die Clickbait-Überschrift hinaus nicht, seinen KI-Ursprung zu verbergen, und fügte oben eine Zeile ein, in der stand, dass er „von ChatGPT geschrieben“ wurde.
Die Person (echt, nicht künstlich), die den Artikel zusammengestellt hat, fügte eine Zeile ein, in der sie die Aufforderung an ChatGPT vermerkte, die Antwort zu generieren, aus der dann der Artikel entstand.
Noch verwirrender war die Vermarktung des Artikels als „Meinungsbeitrag“. Sogar ChatGPT hatte den guten (programmierten) Verstand, seine Antwort mit der Aussage zu beginnen: „Als KI-Sprachmodell habe ich keine persönlichen Meinungen oder Überzeugungen, aber ich kann Informationen zu dem Thema bereitstellen.“
Die National Union of Journalists beschrieb den Artikel als „zutiefst beunruhigend“ und äußerte „große Besorgnis über die Verwendung von KI-generiertem Material auf diese Weise“.
Wie steht es dann mit der Entscheidung in diesem Artikel, Flüchtlinge als Thema zu verwenden? Die Diskussionen und Proteste rund um die Unterbringung von Flüchtlingen und Asylbewerbern in Irland sind im vergangenen Jahr angespannter geworden, sodass die Veröffentlichung eines Artikels, in dem gefragt wird, ob sie „nach Hause gehen“ sollen, an sich schon aufrührerisch ist.
Menschen, die in Irland Schutz suchen, wurden verunglimpft, gezielt angegriffen und in einigen Fällen angegriffen. Flüchtlinge waren Gegenstand zahlreicher falscher und irreführender Behauptungen im Internet, die zur Rechtfertigung der Feindseligkeit ihnen gegenüber genutzt wurden, wie wir in unserer Analyse auf der Website dokumentiert haben Institut für strategischen Dialogeine NGO, die Online-Extremismus, Desinformation und Hass erforscht.
Nach meiner Zählung lief der Artikel auf 14 verschiedenen Websites. Es gab sofort Kritik an dem Artikel wegen seines Einsatzes von KI, aber in den Kommentaren zu Facebook-Posts und Tweets, die den Artikel bewarben, gab es zahlreiche Posts, in denen möglicherweise von Leuten, die nur die Überschrift gelesen hatten, gefordert wurde, Flüchtlinge aus Irland abzuschieben und nach Hause zu schicken oder woanders „entsorgt“ werden.
Es besteht kein großes öffentliches Interesse daran, gleichzeitig über ein Dutzend Artikel im ganzen Land zu veröffentlichen, in denen rhetorisch gefragt wird, ob Flüchtlinge „nach Hause gehen“ sollen. Es dient nur dazu, hitzige, kontroverse Diskussionen rund um das Thema anzuheizen.
Natürlich haben die Menschen ein Recht auf ihre Meinung, aber wo liegt die redaktionelle Verantwortung beim Einsatz von KI, um diese Meinungen zu ködern, indem durch den Einsatz von überladenen Fragen und unverantwortlich formulierten Artikeln zum Engagement aufgerufen wird?
Es handelt sich um sensationslüsternen Clickbait in seiner reduziertesten, zynischsten Form, der die Öffentlichkeit zutiefst irreführt und in der Berichterstattung über Flüchtlinge nachlässig ist. Diese Episode wirft weitere Fragen auf, die es zu berücksichtigen gilt.
Warum wurde ChatGPT verwendet und warum wurde der Artikel in so vielen irischen Titeln verbreitet? Ist dies das erste Mal, dass Iconic Media ChatGPT verwendet, um Inhalte für einen Artikel bereitzustellen? Und warum erhielt der Artikel später eine aktualisierte Überschrift ohne Erklärung zum vorherigen Titel?
Die Mediengruppe hat noch nicht auf meine Fragen zu diesem Thema geantwortet. Entsprechend der
Mitarbeiter mehrerer digitaler Titel der Gruppe in Irland sagten, sie hätten bei der Veröffentlichung des Artikels kein redaktionelles Mitspracherecht und die Entscheidung zur Veröffentlichung des KI-Artikels sei von Iconic Media getroffen worden.Der irische Sekretär der NUJ, Seámus Dooley, sagte, die Mitarbeiter der Mediengruppe hätten ihre Besorgnis über die redaktionelle Macht geäußert, die Iconic Media bei ihren Veröffentlichungen innehabe. Das ist aus offensichtlichen Gründen besorgniserregend.
Irland ist zu einer Art Kanarienvogel im Kohlebergwerk geworden, was die potenziellen Fallstricke generativer KI im Journalismus angeht. Im Mai dieses Jahres wurde die
entschuldigte sich für die Veröffentlichung eines Meinungsbeitrags, der teilweise durch künstliche Intelligenz generiert wurde, und argumentierte, dass die Verwendung von künstlicher Bräune in Irland eine Form kultureller Aneignung sei.Der Artikel war Teil einer umfassenderen Falschmeldung, bei der die verantwortliche Person eine gefälschte Persona und ein Foto von sich selbst erstellte. Der
gab schließlich zu, getäuscht worden zu sein, und ersetzte den Artikel durch einen Korrektur- und Klarstellungshinweis auf seiner Website.Wir wissen immer noch nicht, warum dieser aktuelle KI-gestützte Artikel veröffentlicht wurde, obwohl man hoffen würde, dass es sich nicht um ein Experiment handelte, um durch provokante Inhalte Shares, Klicks und Werbeeinnahmen zu generieren.
Presse-Ombudsfrau Susan McKay sagte, der Einsatz von KI in den Medien müsse „viel umfassender diskutiert“ werden. Irische Medien können bei der Entwicklung branchenweiter Standards und Richtlinien für den Einsatz generativer KI eine Vorreiterrolle spielen und sicherstellen, dass sie nicht zur Irreführung und Fehlinformation eingesetzt wird. Vielleicht ist dies die Gelegenheit für diese Diskussion.
Vielleicht ist die einzige Rettung dieser Episode, dass es sich nicht nur um einen „Meinungsartikel“ handelte, sondern auch nicht wirklich um einen Artikel irgendeiner Art. Es ist beruhigend, dass die künstliche Intelligenz immer noch ziemlich unwissend ist, wenn es darum geht, spaltende, rassistische und hetzerische Inhalte zu generieren.
- Ciaran O’Connor arbeitet an Forschung und Untersuchungen für das Institute of Strategic Dialogue und ist auf Technologie und Extremismus spezialisiert.