Dieses als „Voice Engine“ bezeichnete Modell der künstlichen Intelligenz (KI) kann laut einer Pressemitteilung von OpenAI zu den Ergebnissen eines kleinen Tests die Stimme einer Person aus einer 15-sekündigen Audioprobe reproduzieren.

OpenAI, Riese der generativen künstlichen Intelligenz (KI) und Herausgeber von chatgpt, stellte am Freitag ein Tool zum Klonen von Stimmen vor, dessen Verwendung eingeschränkt wird, um Betrug oder Straftaten wie Identitätsdiebstahl zu verhindern. Laut einer Pressemitteilung von OpenAI zu den Ergebnissen eines kleinen Tests kann dieses KI-Modell mit der Bezeichnung „Voice Engine“ die Stimme einer Person aus einem 15-sekündigen Audio-Sample reproduzieren.

Ängste vor Missbrauch

„Wir sind uns bewusst, dass die Fähigkeit, menschenähnliche Stimmen zu erzeugen, ernsthafte Risiken birgt, die in diesem Wahljahr besonders groß sind“, sagte das in San Francisco ansässige Unternehmen. „Wir arbeiten mit US-amerikanischen und internationalen Partnern aus Regierung, Medien, Unterhaltung, Bildung, Zivilgesellschaft und anderen Bereichen zusammen und berücksichtigen deren Feedback bei der Entwicklung des Tools.“

In diesem entscheidenden Wahljahr auf der ganzen Welt befürchten Desinformationsforscher den Missbrauch generativer KI-Anwendungen (automatisierte Produktion von Texten, Bildern usw.) und insbesondere Tools zum Klonen von Stimmen, die billig und einfach zu verwenden sind. OpenAI versicherte, dass es vor einer breiteren Verbreitung des neuen Tools „einen vorsichtigen und informierten Ansatz“ gewählt habe, „aufgrund des Potenzials für den Missbrauch synthetischer Stimmen“.

Diese vorsichtige Präsentation erfolgt nach einem großen politischen Vorfall, bei dem ein Berater, der für den Präsidentschaftswahlkampf eines demokratischen Rivalen von Joe Biden arbeitete, ein automatisiertes Programm entwickelte, das den amerikanischen Präsidenten imitierte, der für seine Wiederwahl kämpft. Die Stimme, die die von Joe Biden nachahmte, forderte die Wähler auf, sie zur Stimmenthaltung bei den Vorwahlen in New Hampshire zu ermutigen.

Siehe auch  ChatGPT war disruptiv, KI-Agenten werden revolutionär sein

Explizite und strenge Regeln

Die Vereinigten Staaten haben seitdem Anrufe mit geklonten Stimmen, die von KI erzeugt wurden, verboten, um politische oder kommerzielle Betrügereien zu bekämpfen. OpenAI gab an, dass die Partner, die „Voice Engine“ testen, Regeln akzeptiert haben, die insbesondere die ausdrückliche und informierte Zustimmung von erfordern Jeder, dessen Stimme dupliziert wird, und Transparenz für die Zuhörer: Sie müssen sich darüber im Klaren sein, dass die Stimmen, die sie hören, von KI erzeugt werden.

„Wir haben eine Reihe von Sicherheitsmaßnahmen implementiert, darunter ein Wasserzeichen, um die Herkunft aller von Voice Engine erzeugten Töne nachverfolgen zu können, sowie eine proaktive Überwachung seiner Verwendung“, betonte OpenAI. Im vergangenen Oktober stellte das Weiße Haus Regeln und Grundsätze für die Entwicklung der KI vor, darunter auch die der Transparenz. Joe Biden war bewegt von der Idee, dass Kriminelle damit Menschen in die Falle locken, indem sie sich als Familienangehörige ausgeben.

5/5 - (395 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein