Glauben Sie, dass Fehlinformationen jetzt Anlass zur Sorge geben? Warten Sie einfach, bis realistische KI-Stimmen alltäglich werden, schreibt Matt Bartlett.
Es ist oft schwer zu verstehen, was in der von Übertreibungen heimgesuchten Welt des Silicon Valley passiert. Ein gutes Beispiel ist chatgpt, die generative KI, die Anfang des Jahres viral ging. Ist es eine unterhaltsame Spielerei, ein apokalyptisches Vorzeichen für Journalismus und Kunst oder etwas dazwischen? Das ist schwer zu sagen, obwohl wir eines wissen: Die jüngsten Verbesserungen von ChatGPT haben das Potenzial, die Politik, wie wir sie kennen, völlig zu destabilisieren.
Halten. Was ist „generative KI“?
Generative KI ist eine Art künstliches Intelligenzsystem, das auf riesigen Datenmengen aus dem Internet trainiert wird. Es generiert neue Inhalte als Reaktion auf „Eingabeaufforderungen“, wie sie beispielsweise im Nachrichtenfeld von ChatGPT geschrieben sind. ChatGPT wurde entwickelt, um menschenähnliche Antworten auf Fragen zu generieren, und basiert auf einer riesigen Datenbank realer Konversationen und Sprachen, damit es lebensecht wirkt.
Ist ChatGPT also nicht nur ein verherrlichter Chatbot?
Nun ja, das stimmt irgendwie. Im Kern ist ChatGPT eine treue Nachahmung. Aber es stellt sich heraus, dass die Nachahmung der menschlichen Sprache auch bedeutet, dass ChatGPT die menschliche Leistung bei einer Reihe komplexer Aufgaben nachahmen kann, von Mathematik und Programmieren bis hin zu Medizin und Recht. Die KI ist alles andere als perfekt. ChatGPT hat die schlechte Angewohnheit, zu „halluzinieren“ und mit grenzenloser Sicherheit falsche Antworten zu geben, aber es ist dennoch ein beeindruckendes Werkzeug – insbesondere für ein laufendes Projekt.
Es wird also noch verbessert?
Ja, und zwar sprunghaft. Zum Beispiel OpenAI, der Entwickler von ChatGPT, kürzlich angekündigt dass ChatGPT mit Audiofunktionen aktualisiert wird, einschließlich der Fähigkeit, synthetische Stimmen zu erzeugen – also die Fähigkeit, „realistische Stimmen aus nur wenigen Sekunden echter Sprache“ zu erstellen.
Was hat das mit Politik oder Wahlen zu tun?
Diese Technologie könnte es einfach machen, realistische Audioaufnahmen eines Politikers mit seiner eigenen Stimme zu erstellen, der Dinge sagt, die er im wirklichen Leben nie gesagt hat. Es ist nicht schwer, sich vorzustellen, wie ein politischer Aktivist diese Art von Werkzeug mithilfe sozialer Medien als Waffe einsetzen und lebensechte Desinformationen in großem Umfang verbreiten könnte.
Die Kehrseite dieses Problems ist jedoch wohl beängstigender. Es gibt bereits eine lange Erfolgsbilanz Übersee- von Politikern, die routinemäßig Dinge leugnen, die sie gesagt oder getan haben. Das Mainstreaming einer realistischen Stimmerzeugung könnte diesen Politikern eine dauerhafte Freilassungskarte aus dem Gefängnis bescheren. Aufschlussreich Interview mit der New York Times, diskutierten die Wahlkampforganisatoren der Demokraten über das Access Hollywood-Band (auf dem Donald Trump aufgezeichnet wurde, wie er mit sexuellen Übergriffen auf Frauen prahlte) und darüber, was anders wäre, wenn die Aufnahme im Jahr 2023 und nicht im Jahr 2016 durchsickern würde Es sei wahrscheinlich, dass er heute behaupten würde, es sei eine Fälschung, sagten die Organisatoren. Matt Hodges, der technische Leiter von Joe Bidens Wahlkampf 2020, sagte, dass die Republikaner von Rufen nach „Fake News“ zu „Woke AI“ übergehen könnten.
Ach nein.
Es ist nicht großartig. Einerseits erscheint es absurd, dass Politiker mit einem Skandal davonkommen könnten, wenn es eine wörtliche Aufzeichnung ihres Eingeständnisses gibt. Aber wenn ChatGPT wirklich eine realistische Stimme eines Politikers erzeugen kann, wer könnte dazu gebracht werden, etwas zu sagen? irgendetwasEs ist nicht klar, was getan werden könnte, um die Echtheit einer echten Aufnahme zu beweisen. Dies hat weitreichende Konsequenzen: Sprachaufzeichnungen haben in der Vergangenheit Korruption aufgedeckt, Präsidenten gestürzt und Staats- und Regierungschefs der Welt zur Rechenschaft gezogen. Die Integrität dieser Untersuchungen oder Leaks könnte von diesem Zeitpunkt an für immer in Frage gestellt werden, da sie von der KI generiert wurden, zusammen mit einer langen Liste anderer wichtiger Audiodaten, wie z. B. vor Gericht verwendeter Beweise. Ohne einen eisernen technologischen Durchbruch, der zwischen echtem Audio und Imitationen unterscheidet, ist es schwierig, einen Weg nach vorne zu finden.
Was unternehmen die KI-Entwickler gegen diesen potenziellen Schurkenbogen?
OpenAI ist sich der möglichen Risiken seines neuen sprachgesteuerten Tools bewusst und insbesondere des Problems, dass ChatGPT dazu verwendet werden könnte, sich als Persönlichkeiten des öffentlichen Lebens auszugeben oder Betrug zu begehen. Sie sagen, dass sie die Freigabe der Sprachfunktionen für bestimmte Verwendungszwecke stark einschränken, beispielsweise eine Zusammenarbeit mit Spotify, um Podcastern die Veröffentlichung von Übersetzungen in andere Sprachen zu ermöglichen. Die Leitplanken von OpenAI haben sich jedoch schon früher als durchlässig erwiesen, und allein die Existenz einer Mainstream-Sprachsimulationstechnologie wird wohl Politiker ermutigen, die behaupten wollen, Audio-Leaks seien gefälscht. Auch andere KI-Entwickler haben eine ähnliche Technologie entwickelt, allerdings nicht mit der Größe oder dem Einfluss der ChatGPT-Benutzerbasis.
Das ist stressig. TLDR?
Ihre freundliche Nachbarschafts-KI, ChatGPT, eignet sich nicht nur zum Schreiben alltäglicher Büro-E-Mails. Es wird bald in der Lage sein, gefälschte, aber realistische Audioaufnahmen von jedem zu erzeugen, insbesondere von berühmten Personen wie Politikern. Auch wenn OpenAI die meisten Benutzer daran hindert, auf diese Funktionalität zuzugreifen, bietet die Mainstream-Entwicklung dieser Technologie Politikern einen Ausweg aus unbequemen Lecks oder Aufzeichnungen: Sie können auf ChatGPT verweisen und leugnen, leugnen, leugnen.
Die Vorstellung, dass objektive Fakten in der Politik von Bedeutung sind, könnte einen weiteren Schlag erleiden.