Das Unternehmen hinter dem beliebten Chatbot, chatgpt, hat erklärt, dass es die Nutzung der Plattform für politische Kampagnen nicht zulassen würde, obwohl es im Vorfeld einer Reihe von Wahlen in diesem Jahr Tools zur Bekämpfung von Desinformation einführt.
Diese Entwicklung erfolgt vor dem Hintergrund der vom Weltwirtschaftsforum geäußerten Besorgnis über die Möglichkeit, dass die KI-Technologie mehrere in diesem Jahr in verschiedenen Ländern stattfindende Wahlen stören könnte.
Unter den Ländern, in denen dieses Jahr Wahlen stattfinden, sind die Vereinigten Staaten, das Vereinigte Königreich, die Europäische Union und Indien die Spitzenreiter.
OpenAI stellte zwar fest, dass noch daran gearbeitet wird, herauszufinden, wie effektiv ChatGPT für die personalisierte Überzeugung sein könnte, sagte jedoch, dass es den Menschen nicht erlauben werde, es für politische Kampagnen und Lobbyarbeit zu nutzen, „bis wir mehr wissen“.
Bekämpfung von Wahlfehlinformationen
OpenAI betont, wie das Unternehmen vor den Wahlen 2024 gegen den Missbrauch von ChatGPT vorgeht Blogeintrag sagte:
- „Wir erwarten und streben danach, dass die Menschen unsere Tools sicher und verantwortungsbewusst nutzen, und bei Wahlen ist das nicht anders. Wir arbeiten daran, relevanten Missbrauch zu antizipieren und zu verhindern – etwa irreführende „Deep Fakes“, groß angelegte Einflussnahmen oder Chatbots, die sich als Kandidaten ausgeben.
- „Bevor wir neue Systeme veröffentlichen, erstellen wir ein Red-Team für sie, holen Benutzer und externe Partner um Feedback ein und entwickeln Sicherheitsmaßnahmen, um das Schadenspotenzial zu verringern. Seit Jahren arbeiten wir immer wieder an Tools, um die sachliche Genauigkeit zu verbessern, Voreingenommenheit zu reduzieren und bestimmte Anfragen abzulehnen. Diese Tools bilden eine solide Grundlage für unsere Arbeit rund um die Wahlintegrität. DALL·E verfügt beispielsweise über Leitplanken, um Anfragen abzulehnen, die die Erstellung von Bildern realer Personen, einschließlich Kandidaten, erfordern.
- „Menschen möchten wissen und darauf vertrauen können, dass sie mit einer realen Person, einem Unternehmen oder einer Regierung interagieren. Aus diesem Grund erlauben wir Entwicklern nicht, Chatbots zu erstellen, die vorgeben, echte Personen (z. B. Kandidaten) oder Institutionen (z. B. lokale Behörden) zu sein.
- „Wir gestatten keine Bewerbungen, die Menschen von der Teilnahme an demokratischen Prozessen abhalten – zum Beispiel durch die falsche Darstellung von Abstimmungsprozessen und -qualifikationen (z. B. wann, wo oder wer wahlberechtigt ist) oder die von der Stimmabgabe abhalten (z. B. die Behauptung, eine Stimme sei bedeutungslos). ).“
KI-Fehlinformationen als globales Risiko
Nairametrik hatte zuvor berichtet, dass das Weltwirtschaftsforum (WEF) durch KI erzeugte Fehlinformationen/Desinformationen und Cyberangriffe als einige der größten Risiken aufgeführt hat, denen Länder weltweit in diesem Jahr ausgesetzt sein werden.
Dies hat das Forum in seinem soeben veröffentlichten Global Risks Report 2024 offengelegt. Laut WEF ist „Globales Risiko“ definiert als die Möglichkeit des Eintretens eines Ereignisses oder Zustands, der, wenn er eintritt, negative Auswirkungen auf einen erheblichen Teil des globalen BIP, der Bevölkerung oder der natürlichen Ressourcen hätte.
Der Bericht, der die Ergebnisse der Global Risks Perception Survey (GRPS) detailliert beschreibt, zeigt, dass die Fortschritte in der KI-Technologie es den Menschen nun leichter machen, Fehlinformationen zu erstellen und zu verbreiten.
Dem Bericht zufolge sahen 53 % der Befragten KI-Fehlinformationen als das größte globale Risiko im Jahr 2024 und belegten damit Platz 2 der zehn größten Risiken für dieses Jahr, nach extremen Wetterbedingungen, die die Risikotabelle anführten.