[ad_1]

Wenn diese Art von Aktion in den USA erfolgreich ist, sagt OpenAI, dann werde man den Ansatz während der Wahlzyklen in anderen Regionen wiederholen.

Weitere Schritte, die chatgpt im Wahljahr unternimmt

Neben der Weiterleitung der Wähler an legitime Quellen für Wahlinformationen gibt es noch mehrere weitere Schritte OpenAI sagt, es müsse sichergestellt werden, dass ChatGPT im Wahljahr nicht missbraucht wird.

Das wird Ihnen zum Beispiel nicht gelingen Erstellen Sie ein GPT (ein benutzerdefinierter Chatbot), der eine politische Figur oder Institution nachahmt und dann vorgibt, in ihrem Namen zu sprechen. Auch „Bewerbungen“, die Menschen von der Teilnahme abschrecken sollen, sind nicht auf der Speisekarte.

„Wir arbeiten daran, relevante Missbräuche – etwa Irreführung – zu antizipieren und zu verhindern.“Deepfakes„“, skalierte Einflussoperationen oder Chatbots, die sich als Kandidaten ausgeben“, sagt Open AI.

„Bevor wir neue Systeme veröffentlichen, erstellen wir ein Red-Team für sie, holen Benutzer und externe Partner um Feedback ein und entwickeln Sicherheitsmaßnahmen, um das Schadenspotenzial zu reduzieren“, fügt das Unternehmen hinzu.

Was die Bildgenerierung angeht, implementiert ChatGPT Anfang dieses Jahres die digitalen Anmeldeinformationen der Coalition for Content Provenance and Authenticity – was das Anbringen eines kryptografischen Markers an allen generierten Bildern beinhaltet mit DALL-E.

OpenAI sagt auch, dass es einige „vielversprechende“ Ergebnisse eines neuen Provenienzklassifikators gesehen hat, mit dem das Unternehmen experimentiert. Die Technologie soll erkennen, ob ein Bild mit DALL-E erstellt wurde, auch wenn es in irgendeiner Weise verändert wurde.

Siehe auch  OpenAI-Führungskräfte laden Sam Altman und Greg Brockman in die Zentrale ein

Wird ChatGPT einen guten oder einen schlechten Einfluss auf Wahlen haben?

ChatGPT ist weit verbreitet Wird von Unternehmen in den Vereinigten Staaten verwendet und vom Chatbot wird erwartet, dass er überzeugend auf eine Lawine politischer und rechtlicher Fragen antwortet, je näher die Wahl rückt.

Obwohl die Aussicht auf ChatGPT – sowie andere KI-Tools – Über die Verwendung von ChatGPT zur Verbreitung von Desinformation wurde ausführlich gesprochen, ob ChatGPT konkret einen besonders negativen Einfluss auf Wahlen haben wird, ist alles andere als eindeutig.

Natürlich besteht die Gefahr, dass ChatGPT unbeabsichtigt falsche politische Informationen bereitstellt – obwohl OpenAI mit seinem Ansatz dieser Möglichkeit offenbar direkt entgegentritt.

Tatsächlich würden Pläne, Wähler auf eine Website mit legitimen Wahlinformationen zu leiten – und sicherzustellen, dass ChatGPT demokratische Prozesse nicht falsch darstellt –, zumindest oberflächlich betrachtet, darauf hindeuten, dass OpenAI möglicherweise strengere Vorschriften für sich selbst durchgesetzt hat als viele der anderen von uns genutzten Kanäle um Informationen zu beschaffen, wo Desinformation oft schwelert.

Desinformation – sowie andere überzeugende politische Inhalte – bereits fließt schnell durch Social-Media-SeitenSuchmaschinen und sogar einige traditionelle Medienkanäle in rasantem Tempo.

Darüber hinaus verwaltet OpenAI nicht Millionen von Benutzern, die einen endlosen Strom von von Menschen erstellten Inhalten produzieren sozialen Medien Websites, und es gibt keine entsprechenden Überlegungen zum Ersten Verfassungszusatz. Die Ausgabe von ChatGPT ist nicht ganz so „unkontrolliert“ und auch nicht geschützt.

Theoretisch könnte OpenAI sogar eine „No-Politics“-Regel durchsetzen, wenn es das wirklich wollte. Dieses grobe Prinzip wird bereits auf GPTs angewendet, die nicht so gestaltet werden können, dass sie Figuren oder Institutionen nachahmen.

Siehe auch  Beste Anwendungsfälle für ChatGPT

Die Bedrohung, die KI für demokratische Wahlen im Inland darstellt – und es ist eine sehr reale – geht wahrscheinlich eher von generativen KI-Tools aus, die nicht dem gleichen öffentlichen Druck ausgesetzt sind, ihren „Ansatz“ für die Wahlen im Jahr 2024 bekannt zu machen , oder von jemandem, der gebaut ist ein bösartiges KI-Toolund implementiert daher keine Leitplanken.

Natürlich nutzen nationalstaatliche Akteure bereits KI-Tools, um Desinformation zu verbreiten, und dies ist wahrscheinlich die wahrscheinlichste Art und Weise, die wir sehen werden KI störte früher demokratische Prozesse wenn die Einmischung in die Wahlen der letzten Jahre noch eine Fortsetzung finden kann.

Es ist auch wichtig, sich daran zu erinnern, dass dies eine ist KI-System, das uns immer wieder überraschtund erweist sich weiterhin als fehlbar und anfällig für Manipulationen. Und sobald OpenAI Änderungen an ChatGPT vornimmt, wartet eine Armee von Leuten darauf, es an seine logischen Grenzen zu bringen. Eine Flut von Wahlen schafft lediglich eine zusätzliche politische Motivation, dies zu tun.

Was auch immer passiert, die Art und Weise, wie ChatGPT und andere KI-Tools von Wählern genutzt werden, wird das ganze Jahr über die Schlagzeilen beherrschen.

[ad_2]

5/5 - (451 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.