chatgpt kann Fehlinformationen während Wahlperioden verstärken. OpenAI ist sich der Risiken bewusst und versucht, Ängste hinsichtlich der Rolle zu zerstreuen, die KI bei der Gestaltung von Wahlen spielen könnte. Das Unternehmen beschließt, vorgelagerte Maßnahmen zu ergreifen, um einen Überlauf zu vermeiden.

ChatGPT: Initiativen zum Schutz von Wahlen

2024 scheint das Jahr der Wahlen zu sein. Dutzende sind auf der ganzen Welt geplant: in Europa, den Vereinigten Staaten, Russland usw. Der explosive Erfolg von ChatGPT hat eine globale KI-Revolution ausgelöst. Jedoch, Das Tool erleichterte auch Fehlinformationen. Bei Wahlen können diese Fake News genutzt werden, um Wähler zu beeinflussen und Ergebnisse zu manipulieren.

YouTube Video

Gestern, am 15. Januar, sprach OpenAI zu diesem Thema. Das teilte das Unternehmen in einem Blogbeitrag mit würde die Nutzung seiner Technologien, einschließlich ChatGPT und DALL-E 3, für politische Zwecke nicht genehmigen. Laut seinen Aussagen setzt sich OpenAI dafür ein, Missbrauch zu verhindern und die Transparenz rund um KI-generierte Inhalte zu verbessern.

„Wir wollen sicherstellen, dass unsere Technologie nicht in einer Weise eingesetzt wird, die dem demokratischen Prozess schaden könnte“, betont sie. Das gibt das KI-Unternehmen in seiner Pressemitteilung bekannt mehrere Initiativen zur Bekämpfung KI-generierter Fehlinformationen weltweit.

Neue Tools in der Entwicklung

Um einen verantwortungsvollen Umgang mit seinen Technologien sicherzustellen, beschreibt OpenAI Maßnahmen zur Verhinderung von Deepfakes. Dank eines neuen Tools werden nun alle von DALL-E 3 generierten Bilder mit kodiert Informationen, die den Ursprung des Bildes identifizieren (Wer hat es erstellt und wann wurde es erstellt).

Siehe auch  5 ChatGPT-Aufforderungen zur Erzeugung eines Laserfokus bei der Arbeit
Chatgpt Riskiert, Wahlen Zu Ruinieren: Hier Ist Der Plan Von Openai, Dies Zu Verhindern
Openais Plan Für Wahlen 2

Diese Informationen werden mit einer Verschlüsselung verschlüsselt, die von der Coalition for Content Provenance and Authenticity (C2PA) entwickelt wurde, einer von Adobe, Microsoft, Intel und anderen Technologieunternehmen gegründeten Gruppe. Das C2PA zielt darauf ab Wahrung der Integrität und Glaubwürdigkeit digitaler Inhalte im Bereich KI.

Dank dieses neuen Tools (das sich noch in der Entwicklung befindet) möchte OpenAI ermöglichen es Benutzern, die Zuverlässigkeit von Inhalten zu bewerten, insbesondere bei Wahlen. Das Unternehmen hat außerdem die Nutzungsrichtlinien aktualisiert, um zu verhindern, dass Politiker Chatbots zur Verbreitung von Propaganda erstellen.

Es verbietet auch die Nachahmung politischer Persönlichkeiten und Regierungsinstitutionen. Durch die Verschärfung seiner Richtlinien möchte OpenAI auch die Verwendung seiner Tools für Lobbying oder zur Verhinderung von Stimmabgaben verbieten. Und schließlich, speziell für die Vereinigten Staaten: Wenn Benutzer Fragen zur Wahl und anderen verwandten Themen an ChatGPT stellen, werden sie von der KI auf die Website CanIVote.org weitergeleitet.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.