Während die Präsidentschaftswahl 2024 näher rückt, weiß OpenAI, dass seine Technologie auf dem heißen Stuhl sitzt. Die Washington Post nannte das diesjährige Rennen das „KI-Wahl“ und die jüngsten des Weltwirtschaftsforums „Globaler Risikobericht 2024“ ordnete KI-basierte Fehlinformationen und Desinformationen neben Herausforderungen wie dem Klimawandel ein.
In einem Blogbeitrag heute geteiltOpenAI erläuterte auf seinen Plattformen, wie es die Integrität von Wahlen schützen und mit Wahleinmischungen umgehen will, darunter „irreführende ‚Deepfakes‘, groß angelegte Einflussnahmeoperationen oder Chatbots, die sich als Kandidaten ausgeben“.
DALL-E-Bilder
In seinem Beitrag stellt OpenAI fest, dass es bereits „Tools zur Verbesserung der sachlichen Genauigkeit, zur Reduzierung von Vorurteilen und zur Ablehnung bestimmter Anfragen“ gibt. DALL-E kann beispielsweise „Anfragen ablehnen, die die Erstellung von Bildern von echten Menschen, einschließlich Kandidaten“, verlangen, obwohl im Blogbeitrag nicht angegeben wird, ob und wann DALL-E diese Entscheidung trifft.
OpenAI verspricht außerdem eine bessere Transparenz über die Herkunft von Bildern und die für ihre Erstellung verwendeten Tools. Bis DALL-E 3 später in diesem Jahr auf den Markt kommt, plant das Unternehmen nach eigenen Angaben die Implementierung eines Bildkodierungsansatzes, der Details zur Herkunft des Inhalts speichert.
OpenAI testet außerdem ein neues Tool, das erkennen kann, ob ein Bild von DALL·E generiert wurde oder nicht, selbst wenn das Bild „üblichen Arten von Änderungen“ unterzogen wurde.
Chat-GPT-Inhalte
OpenAI kündigt nichts allzu Neues an, wenn es um ChatGPT geht, sondern weist stattdessen darauf hin bestehende Nutzungsrichtlinien für die Plattform und ihre API.
Derzeit erlauben sie es Menschen nicht, beispielsweise Anwendungen für politische Kampagnen und Lobbyarbeit zu erstellen oder Chatbots zu erstellen, die vorgeben, echte Menschen zu sein, einschließlich Kandidaten oder Regierungen. Es verstößt auch gegen die Nutzungsrichtlinien von ChatGPT, Anwendungen zu erstellen, „die Menschen von der Teilnahme an demokratischen Prozessen abhalten“ oder die von der Stimmabgabe abhalten.
Der Bing-KI-Chatbot Copilot von Microsoft gibt falsche Wahlinformationen
Der Blogbeitrag verspricht, dass ChatGPT den Benutzern bald ein höheres Maß an Transparenz bieten wird, indem es Zugriff auf globale Nachrichtenberichte in Echtzeit einschließlich Quellenangaben und Links bietet. Durch die Zusammenarbeit mit dem verbessert die Plattform auch den Zugang zu maßgeblichen Abstimmungsinformationen Nationaler Verband der Staatssekretäre (NASS) und Weiterleitung der Benutzer an CanIVote.org auf die Frage nach „bestimmten verfahrenstechnischen Fragen im Zusammenhang mit Wahlen“ wie „Wo soll gewählt werden?“
Benutzer sollten außerdem die Möglichkeit haben, potenzielle Verstöße während der Nutzung der Plattform zu melden, eine Option, die in den „neuen GPTs“ des Unternehmens verfügbar ist.
Seien Sie sicher da draußen und nutzen Sie Ihr bestes Urteilsvermögen, wenn die Wahl näher rückt. Wenn Sie mehr darüber erfahren möchten, wie Sie Wahlfehlinformationen erkennen können, Schauen Sie sich den Leitfaden von ProPublica an.
Themen Wahlen mit künstlicher Intelligenz