Gestern präsentierte mir TikTok etwas, das wie ein Deepfake aussah Timothee Chalamet sitzt im Leonardo Dicaprio Runde und ja, ich dachte sofort: „Wenn dieses blöde Video so gut ist, stellen Sie sich vor, wie schlimm die Fehlinformationen zur Wahl sein werden.“ OpenAI hat zwangsläufig über dasselbe nachgedacht und heute seine Richtlinien aktualisiert, um mit der Lösung des Problems zu beginnen.
Der Wallstreet Journal nahm die neue Änderung der Politik zur Kenntnis die Waren erstmals im OpenAI-Blog veröffentlicht. chatgpt, Dall-e und anderen OpenAI-Tool-Benutzern und -Erstellern ist es jetzt verboten, die OpenAI-Tools zu verwenden, um sich als Kandidaten oder lokale Regierungen auszugeben, und Benutzer können die OpenAI-Tools auch nicht für Kampagnen oder Lobbying verwenden. Benutzern ist es auch nicht gestattet, OpenAI-Tools zu verwenden, um von der Abstimmung abzuhalten oder den Abstimmungsprozess falsch darzustellen.
Das digitale Ausweissystem würde Bilder mit ihrer Herkunft kodieren, wodurch es wesentlich einfacher wird, künstlich erzeugte Bilder zu identifizieren, ohne nach seltsamen Händen oder außergewöhnlich auffälligen Passungen suchen zu müssen.
Die Tools von OpenAI werden auch damit beginnen, Abstimmungsfragen in den Vereinigten Staaten an zu richten CanIVote.orgdas tendenziell eine der besten Autoritäten im Internet ist, wenn es darum geht, wo und wie man in den USA wählt
Aber alle diese Tools befinden sich derzeit erst in der Einführungsphase und sind stark darauf angewiesen, dass Benutzer böswillige Akteure melden. Angesichts der Tatsache, dass KI selbst ein sich schnell veränderndes Werkzeug ist, das uns regelmäßig mit wunderbarer Poesie und offenen Lügen überrascht, ist nicht klar, wie gut dies bei der Bekämpfung von Fehlinformationen im Wahlkampf funktionieren wird. Im Moment ist es am besten, wenn Sie sich weiterhin um Medienkompetenz kümmern. Das bedeutet, jede Neuigkeit oder jedes Bild zu hinterfragen, das zu schön erscheint, um wahr zu sein, und zumindest eine schnelle google-Suche durchzuführen, wenn Ihr ChatGPT etwas völlig Verrücktes findet.