Laut OpenAI arbeitet man daran, Missbrauch zu verhindern, Transparenz über KI-generierte Inhalte zu schaffen und den Zugang zu präzisen Abstimmungen zu verbessern …

Das OpenAI-Logo ist in dieser Abbildung vom 3. Februar 2023 zu sehen. – Reuters

Im Rahmen einer wichtigen Entwicklung zur Gewährleistung der Wahlintegrität auf der ganzen Welt hat das weltweit führende Unternehmen für künstliche Intelligenz (KI) OpenAI die Einführung von Tools zur Bekämpfung von Desinformation angekündigt.

Der chatgpt-Hersteller erklärte in einem Blogbeitrag, dass das Unternehmen „daran arbeitet, Missbrauch zu verhindern, Transparenz über KI-generierte Inhalte zu schaffen und den Zugang zu genauen Abstimmungsinformationen zu verbessern“.

Der Schritt gilt als bedeutsam angesichts der Gefahren, die durch Fake News und Fehlinformationen entstehen, die sich auf die Wahlprozesse auf der ganzen Welt auswirken, da in einer Reihe von Ländern, darunter Pakistan, Indien, den USA und der Europäischen Union, Wahlen stattfinden.

Auch das Weltwirtschaftsforum (WEF) hat in seinem Global Risk Report KI-gesteuerte Fehlinformationen zur „größten kurzfristigen Bedrohung“ für die Weltwirtschaft erklärt.

Mit dem Versprechen, den schädlichen Einsatz seiner Technologien – ChatGPT und DALL·E – zu stoppen, wollte OpenAI alle Beteiligten dazu auffordern, die Integrität der Wahlen zu schützen.

„Wir möchten sicherstellen, dass unsere Technologie nicht in einer Weise eingesetzt wird, die diesen Prozess gefährden könnte. Wir möchten sicherstellen, dass unsere KI-Systeme sicher gebaut, eingesetzt und genutzt werden. Wie jede neue Technologie bringen diese Tools Vorteile und Herausforderungen mit sich. „Sie sind auch beispiellos und wir werden unseren Ansatz weiterentwickeln, wenn wir mehr über die Verwendung unserer Werkzeuge erfahren“, sagte das Unternehmen.

Siehe auch  So integrieren Sie ChatGPT in Amazon: Eine Anleitung

Missbrauch verhindern

Das Unternehmen fügte hinzu, dass es vor der Veröffentlichung neuer Systeme ein Red-Team erstellt, Benutzer und externe Partner um Feedback bittet und Sicherheitsmaßnahmen entwickelt, um das Schadenspotenzial zu verringern.

„DALL-E hat Leitplanken, um Anfragen abzulehnen, die die Generierung von Bildern von echten Menschen, einschließlich Kandidaten, verlangen“, hieß es.

OpenAI sagte, dass sie immer noch daran arbeiten, zu verstehen, wie effektiv ihre Tools für die personalisierte Überzeugung sein könnten, und bis klar ist, dass sie den Menschen nicht erlauben werden, Anwendungen für politische Kampagnen und Lobbyarbeit zu entwickeln.

Das Unternehmen hat außerdem neue GPTs erstellt, über die Benutzer potenzielle Verstöße melden können.

Darüber hinaus wurde ein Mechanismus eingeführt, der Entwickler daran hindert, Chatbots zu erstellen, die vorgeben, echte Personen oder Institutionen zu sein.

Ebenso werden Anwendungen, die Menschen von der Teilnahme an demokratischen Prozessen abschrecken können, nicht zugelassen.

Transparenz rund um den Inhalt

OpenAI wies darauf hin, wie wichtig es ist, von KI erstellte Inhalte zu kennzeichnen, und sagte, das Unternehmen arbeite an mehreren Provenienzbemühungen, die dem von ChatGPT generierten Text eine zuverlässige Zuordnung zuordnen und Benutzern außerdem die Möglichkeit geben würden, zu erkennen, ob ein Bild mit DALL-E 3 erstellt wurde .

„Anfang dieses Jahres werden wir die digitalen Referenzen der Coalition for Content Provenance and Authenticity – einen Ansatz, der Details über die Herkunft des Inhalts mithilfe von Kryptografie kodiert – für von DALL-E 3 generierte Bilder implementieren.“

Die Koalition, so AFP, auch bekannt als C2PA, zielt darauf ab, Methoden zur Identifizierung und Rückverfolgung digitaler Inhalte zu verbessern. Zu seinen Mitgliedern zählen Microsoft, Sony, Adobe und die japanischen Bildbearbeitungsfirmen Nikon und Canon.

Siehe auch  ChatGPT hilft Ihnen automatisch dabei, mit Aktien zu handeln und jeden Tag im Liegen Geld zu verdienen? | TechNews Technologie-News

Zusammenarbeit

ChatGPT, heißt es weiter in der Erklärung, integriere sich zunehmend in bestehende Informationsquellen, woraufhin Benutzer Zugang zu Echtzeit-Nachrichtenberichten weltweit erhalten, einschließlich Quellenangabe und Links.

Um den Zugang zu maßgeblichen Abstimmungsinformationen zu verbessern, hat sich OpenAI in ähnlicher Weise mit der National Association of Secretaries of State (NASS) zusammengetan, wo ChatGPT Benutzer zu CanIVote.org weiterleiten wird – einer maßgeblichen Website für US-Abstimmungsinformationen.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.