Der Erfinder von CahtGPT, OpenAI, hat seinen Plan dargelegt, um zu verhindern, dass seine Technologie zur Verbreitung von Fehlinformationen und zur Beeinträchtigung von Wahlen genutzt wird.
Mehr als 50 Länder werden in diesem Jahr an den Wahlen teilnehmen, was als die größte Demokratiedemonstration aller Zeiten gilt. Der jüngste Aufstieg der generativen künstlichen Intelligenz hat jedoch zu Befürchtungen geführt, dass sie eine Bedrohung für freie und faire Wahlen darstellen könnte.
Eine der Hauptsorgen betrifft Deepfake-Bilder, die mit Tools wie Dall-E von OpenAI erstellt werden können. Diese können bestehende Bilder manipulieren oder völlig neue Darstellungen von Politikern in kompromittierenden Situationen erzeugen.
Eine weitere Art von KI, die möglicherweise missbraucht werden könnte, sind textbasierte Generatoren wie chatgpt, die Texte erzeugen können, die überzeugend menschlich sind.
„Während wir uns auf die Wahlen im Jahr 2024 in den größten Demokratien der Welt vorbereiten, besteht unser Ansatz darin, unsere Arbeit zur Plattformsicherheit fortzusetzen, indem wir genaue Abstimmungsinformationen verbessern, maßvolle Richtlinien durchsetzen und die Transparenz verbessern“, erklärte ein OpenAI-Blogbeitrag Umgang mit KI und Wahlen.
„Wie jede neue Technologie bringen diese Tools Vorteile und Herausforderungen mit sich. Sie sind auch beispiellos, und wir werden unseren Ansatz weiterentwickeln, wenn wir mehr über die Verwendung unserer Werkzeuge erfahren.“
OpenAI sagte, es habe Mitglieder seiner Sicherheitssysteme, Bedrohungsaufklärung, Rechts-, Technik- und Richtlinienteams zusammengebracht, um jeden möglichen Missbrauch seiner Technologie zu untersuchen und dagegen vorzugehen.
Das in San Francisco ansässige Unternehmen verfügt bereits über Maßnahmen, um zu verhindern, dass sein Dall-E-Tool Anfragen zur Bildgenerierung von echten Menschen akzeptiert. Andere KI-Startups verfügen jedoch nicht über solche Leitplanken.
OpenAI-Geschäftsführer Sam Altman hatte zuvor erklärt, er sei „nervös“ über die Bedrohung, die generative KI für die Wahlintegrität darstellt, und sagte vor dem Kongress im Mai aus, dass sie auf neuartige Weise zur Verbreitung von „eins-zu-eins interaktiver Desinformation“ eingesetzt werden könne.
Zu den neuen Maßnahmen zur Verhinderung eines solchen Missbrauchs gehört eine neue Funktion mit ChatGPT, die US-Benutzer auf die Website CanIVote.org weiterleitet, um verlässliche Informationen über Abstimmungen anzubieten.
Es werden auch neue Methoden zur Identifizierung von KI-generierten Bildern entwickelt. OpenAI arbeitet mit der Coalition for Content Provenance and Authenticity zusammen, um Symbole auf gefälschten Bildern zu platzieren.
Deepfake-Inhalte wurden bereits verwendet, um Wahlen zu beeinflussen, wobei im Vorfeld der slowakischen Wahlen im vergangenen Jahr KI-generierte Audiodaten verwendet wurden, die einen der Kandidaten kompromittiert haben.
Auch die Labour-Partei im Vereinigten Königreich war Ziel gefälschter Audioaufnahmen. Im Oktober tauchte eine gefälschte Aufnahme des Parteichefs Keir Starmer mit den Worten „Ich hasse Liverpool“ auf.
Eine aktuelle Umfrage der Vergleichsseite Finder.com ergab, dass nur 1,5 Prozent der Menschen im Vereinigten Königreich Deepfake-Clips von Prominenten und Politikern richtig identifizieren konnten.