Philadelphia

Philadelphia Getty Images

Das Kampagnenteam hinter dem umkämpften Sheriff von Philadelphia gab am Montag zu, dass eine Reihe positiver „Nachrichten“, die auf seiner Website veröffentlicht wurden, von chatgpt generiert wurden.

Die Kampagne von Sheriff Rochelle Bilal entfernte mehr als 30 Geschichten, die von einem Berater mithilfe des generativen KI-Chatbots erstellt wurden. Der Umzug erfolgte nach einem Philadelphia Inquirer-Geschichte berichtete am Montag, dass lokale Nachrichtenagenturen die Geschichten nicht in ihren Archiven finden konnten.

Experten sagen, dass diese Art von Fehlinformationen das Vertrauen der Öffentlichkeit untergraben und die Demokratie gefährden kann. Bilals Kampagne sagte, die Geschichten basierten auf wahren Begebenheiten.

„Unsere Kampagne lieferte die Gesprächsthemen externer Berater, die dann dem KI-Dienst zur Verfügung gestellt wurden“, heißt es in einer Erklärung der Kampagne. „Es ist jetzt klar, dass der Dienst für künstliche Intelligenz Fake-News-Artikel generiert hat, um die Initiativen zu unterstützen, die Teil der KI-Prompt waren.“

Große Sprachmodelle wie ChatGPT von OpenAI funktionieren, indem sie wiederholt das plausibelste nächste Wort in einem Satz vorhersagen. Das macht sie gut darin, anspruchsvolle Aufgaben in Sekundenschnelle zu erledigen, aber es führt auch dazu, dass sie häufig Fehler machen, sogenannte „ Halluzinationen.

Viele Amerikaner haben damit begonnen, diese Tools zu nutzen, um geschäftliche E-Mails, Website-Kopien und andere Dokumente schneller zu verfassen. Dies kann jedoch zu Problemen führen, wenn die Genauigkeit nicht im Vordergrund steht oder das Material nicht sorgfältig auf Fakten überprüft wird.

Zwei Anwälte mussten sich beispielsweise letztes Jahr bei einem Richter am Bundesgericht in Manhattan entschuldigen, nachdem sie nutzte ChatGPT, um nach rechtlichen Präzedenzfällen zu suchen und bemerkte nicht sofort, dass das System etwas erfunden hat.

Siehe auch  Sam Altman, CEO des ChatGPT-Herstellers OpenAI, und Mike Johnson, Sprecher des US-Repräsentantenhauses, treffen sich, um KI-Risiken zu besprechen: Was macht das Treffen wichtig?

Mike Nellis, Gründer des KI-Kampagnentools Quiller, bezeichnete den Einsatz von KI durch den Kampagnenberater als „völlig unverantwortlich“.

„Es ist unethisch“, sagte er. „Es liegt gerade nach oben.“

Aber er sagte, dass OpenAI für die Durchsetzung verantwortlich sei seine Richtliniendie es den Menschen nicht erlaubt, die Ergebnisse ihrer Produkte zu teilen, um andere zu betrügen oder in die Irre zu führen.

OpenAI erlaubt es auch nicht, seine Systeme zu nutzen, um Anwendungen für politische Kampagnen oder Lobbyarbeit zu erstellen, obwohl es in diesem Fall keine Beweise dafür gibt. OpenAI reagierte nicht sofort auf eine Bitte um einen Kommentar.

Nellis sagte, dass angesichts des technologischen Fortschritts auch eine lokale, staatliche und bundesstaatliche Regulierung von KI-Tools in der Politik erforderlich sei. Obwohl parteiübergreifende Diskussionen im Kongress die Notwendigkeit einer solchen Gesetzgebung betont haben, wurde noch kein Bundesgesetz verabschiedet.

Die Bilal-Story-Liste, die die Website ihr „Record of Achievements“ nannte, endete mit einem Haftungsausschluss – den der Inquirer als neu bezeichnete –, dass die Informationen „keine Zusicherungen oder Gewährleistungen jeglicher Art“ über die Richtigkeit der Informationen abgeben.

Einige, darunter ein entlassener Whistleblower in Bilals Büro, befürchten, dass solche Fehlinformationen die Wähler verwirren und zu anhaltendem Misstrauen beitragen könnten Bedrohungen für die Demokratie.

„Da habe ich große Bedenken“, sagte Brett Mandel, der 2020 kurzzeitig als ihr Finanzchef fungierte und vor der Veröffentlichung der Erklärung durch die Kampagne sprach.

„Ich denke, wir haben auf lokaler und nationaler Ebene nicht nur eine Missachtung der Wahrheit und der Institutionen gesehen, die wir als Wächter der Wahrheit betrachtet haben“, sagte er, „sondern ich denke, wir haben jegliches Vertrauen in diesem Bereich untergraben.“ ”

Siehe auch  10 Möglichkeiten, wie Freiberufler ChatGPT nutzen können, um ihr Geschäft auszubauen

Mandel reichte eine von mehreren Whistleblower-Klagen gegen das Büro ein. Er behauptete, er sei entlassen worden, weil er Bedenken hinsichtlich der Bürofinanzen geäußert hatte. Bilal wurde während ihrer Amtszeit wegen Büroausgaben, Berichten zur Wahlkampffinanzierung und dem gemeldeten Verlust von kritisiert Hunderte von Waffen und andere Probleme.

In der Liste der Nachrichtenartikel, die angebliche Veröffentlichungsdaten enthält, wurden dem Inquirer vier Nachrichtenartikel zugeschrieben, von denen sich keiner im Archiv der Zeitung befindet, sagte Sprecher Evan Benn. Die anderen wurden drei lokalen Rundfunksendern zugeschrieben – WHYY, WCAU und KYW.

___

Swenson berichtete aus New York.

___

Die Associated Press erhält Unterstützung von mehreren privaten Stiftungen, um ihre erklärende Berichterstattung über Wahlen und Demokratie zu verbessern. Erfahren Sie mehr über die Demokratieinitiative von AP Hier. Für sämtliche Inhalte ist allein der AP verantwortlich.

5/5 - (265 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein