Seit in den Vereinigten Staaten das letzte Mal Parlamentswahlen stattfanden, hat sich die Welt stark verändert. In der Ukraine gab es keinen Krieg und Israel war nicht in Gaza einmarschiert. Aber was sich am meisten auf das Leben der einfachen Leute auswirkt: Es gab keine Werkzeuge der künstlichen Intelligenz, die so einfach zu bedienen waren – im Guten wie im Schlechten.
OpenAI hat notgedrungen über das Gleiche nachgedacht und heute seine Richtlinien aktualisiert, um mit der Lösung des Problems zu beginnen.
Das Wall Street Journal schloss sich der erstmals veröffentlichten neuen Politikänderung an auf dem Blog von OpenAI: ChatGPT, Dall-e und andere Benutzer und Entwickler von OpenAI-Tools sind jetzt Es ist verboten, OpenAI-Tools zu verwenden, um sich als Kandidaten oder lokale Regierungen auszugebenund Benutzer können OpenAI-Tools nicht für Kampagnen oder Lobbying-Gruppen verwenden.
Benutzern ist dies auch nicht gestattet Verwenden Sie OpenAI-Tools, um von der Abstimmung abzuhalten oder den Abstimmungsprozess falsch darzustellen.
Notwendige Maßnahmen für faire Wahlen
Zusätzlich zu einer strengeren Politik zur Desinformation bei Wahlen, OpenAI plant außerdem, die digitalen Referenzen der Coalition for Content Provenance and Authenticity (C2PA) zu integrieren. in die von Dall-E „Anfang dieses Jahres“ generierten Bilder.
Derzeit arbeiten auch Microsoft, Amazon, Adobe und Getty mit C2PA zusammen zur Bekämpfung von Fehlinformationen durch KI-generierte Bilder.
Das digitale Ausweissystem würde die Bilder mit ihrer Herkunft verschlüsseln, Dies würde die Identifizierung künstlich erzeugter Bilder erheblich erleichtern, ohne nach seltenen Händen oder außergewöhnlichen Beuteeinstellungen suchen zu müssen.
Die Tools von OpenAI werden außerdem damit beginnen, Fragen zur Stimmabgabe in den Vereinigten Staaten an CanIVote.org weiterzuleitendas oft eine der besten Quellen im Internet ist, um herauszufinden, wo und wie man in den Vereinigten Staaten wählen kann.
Aber alles Diese Tools befinden sich noch in der Bereitstellungsphase und hängen weitgehend davon ab, dass Benutzer schlechte Akteure melden. Da KI selbst ein sich schnell veränderndes Werkzeug ist, das uns regelmäßig mit wunderbarer Poesie und offensichtlichen Lügen überrascht, ist nicht klar, inwieweit es bei der Bekämpfung von Fehlinformationen während der Wahlsaison gut funktionieren wird.
iphone“ target=“_self“ rel=“noopener noreferrer“/>
Die beste Option ist vorerst immer noch Medienkompetenz. Das bedeutet, jede Nachricht oder jedes Bild zu hinterfragen, das zu schön erscheint, um wahr zu sein und zumindest eine schnelle google-Suche durchführen, wenn ChatGPT etwas völlig Absurdes preisgibt.
Journalist, spezialisiert auf Technologie, Unterhaltung und Videospiele. Wenn ich über das schreibe, wofür ich eine Leidenschaft habe (Gadgets, Spiele und Filme), bleibe ich bei Verstand und wache mit einem Lächeln im Gesicht auf, wenn der Wecker klingelt. PS: Das trifft nicht immer zu 100 % zu.
Das Neueste von Chema Carvajal Sarabia