chatgpt Maker OpenAI führt Tools zur Bekämpfung von Desinformation bei Wahlen im Jahr 2024 ein“ alt=“ChatGPT Maker OpenAI führt Tools zur Bekämpfung von Desinformation bei Wahlen im Jahr 2024 ein“ id=“story_image_main“ src=“https://c.ndtvimg.com/2024-01/ke9eh2_openai-chatgpt_625x300_16_January_24.jpeg“/>

In diesem Jahr stehen Wahlen in Ländern wie Indien, den USA und dem Vereinigten Königreich an (Repräsentationswahlen).

San Francisco:

Der ChatGPT-Hersteller OpenAI hat angekündigt, im Vorfeld der Dutzenden Wahlen in diesem Jahr in Ländern, in denen die Hälfte der Weltbevölkerung lebt, Instrumente zur Bekämpfung von Desinformation einzuführen.

Der explosive Erfolg des Textgenerators ChatGPT löste eine weltweite Revolution der künstlichen Intelligenz aus, löste aber auch Warnungen aus, dass solche Tools das Internet mit Desinformation überschwemmen und Wähler beeinflussen könnten.

Da in diesem Jahr Wahlen in Ländern wie den Vereinigten Staaten, Indien und Großbritannien anstehen, sagte OpenAI am Montag, es werde nicht zulassen, dass seine Technologie – einschließlich ChatGPT und der Bildgenerator DALL-E 3 – für politische Kampagnen verwendet werde.

„Wir wollen sicherstellen, dass unsere Technologie nicht in einer Weise genutzt wird, die den demokratischen Prozess untergraben könnte“, sagte OpenAI in einem Blogbeitrag.

„Wir arbeiten noch daran zu verstehen, wie effektiv unsere Tools für die personalisierte Überzeugungsarbeit sein könnten“, heißt es weiter.

„Solange wir nicht mehr wissen, erlauben wir den Menschen nicht, Anwendungen für politische Kampagnen und Lobbyarbeit zu erstellen.“

KI-gesteuerte Desinformation und Fehlinformation sind die größten kurzfristigen globalen Risiken und könnten neu gewählte Regierungen in großen Volkswirtschaften untergraben, warnte das Weltwirtschaftsforum in einem letzte Woche veröffentlichten Bericht.

Die Angst vor Wahldesinformation begann schon vor Jahren, aber die öffentliche Verfügbarkeit leistungsstarker KI-Text- und Bildgeneratoren hat die Bedrohung laut Experten erhöht, insbesondere wenn Benutzer nicht leicht erkennen können, ob der Inhalt, den sie sehen, gefälscht oder manipuliert ist.

Siehe auch  Kenianische Arbeiter, die ChatGPT gegründet haben, fordern die Regierung auf, ihre Arbeitsbedingungen zu untersuchen

OpenAI gab am Montag bekannt, dass es an Tools arbeite, die dem von ChatGPT generierten Text eine zuverlässige Zuordnung zuordnen und Benutzern außerdem die Möglichkeit geben würden, zu erkennen, ob ein Bild mit DALL-E 3 erstellt wurde.

„Anfang dieses Jahres werden wir die digitalen Anmeldeinformationen der Coalition for Content Provenance and Authenticity implementieren – einen Ansatz, der Details über die Herkunft des Inhalts mithilfe von Kryptografie kodiert“, sagte das Unternehmen.

Ziel der Koalition, auch bekannt als C2PA, ist die Verbesserung der Methoden zur Identifizierung und Rückverfolgung digitaler Inhalte. Zu seinen Mitgliedern zählen Microsoft, Sony, Adobe und die japanischen Bildbearbeitungsfirmen Nikon und Canon.

Laut OpenAI wird ChatGPT Benutzer auf vertrauenswürdige Websites weiterleiten, wenn ihnen verfahrenstechnische Fragen zu US-Wahlen gestellt werden, beispielsweise wo gewählt werden soll.

„Lehren aus dieser Arbeit werden unseren Ansatz in anderen Ländern und Regionen beeinflussen“, sagte das Unternehmen.

Es fügte hinzu, dass DALL-E 3 über „Leitplanken“ verfügt, die Benutzer daran hindern, Bilder von echten Menschen, einschließlich Kandidaten, zu erstellen.

Die Ankündigung von OpenAI folgt auf Schritte, die letztes Jahr von den US-Technologiegiganten google und Facebook-Mutter Meta bekannt gegeben wurden, um Wahleinmischungen, insbesondere durch den Einsatz von KI, einzuschränken.

AFP hat zuvor Deepfakes – manipulierte Videos – entlarvt, in denen US-Präsident Joe Biden einen Militärentwurf ankündigte und die ehemalige Außenministerin Hillary Clinton den Gouverneur von Florida, Ron DeSantis, als Präsidentin befürwortete.

Wie AFP Fact Check herausfand, wurden vor den Präsidentschaftswahlen in Taiwan in diesem Monat manipulierte Film- und Audioaufnahmen von Politikern in den sozialen Medien verbreitet.

Während viele dieser Inhalte von geringer Qualität sind und nicht sofort klar ist, ob sie mit KI-Apps erstellt wurden, sagen Experten, dass Desinformation eine Vertrauenskrise in politische Institutionen schürt.

Siehe auch  ChatGPT kommt auf das iPad und wird mit dem Sprachassistenten von Apple kompatibel sein

(Mit Ausnahme der Überschrift wurde dieser Artikel nicht von NDTV-Mitarbeitern bearbeitet und wird über einen syndizierten Feed veröffentlicht.)

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.