Veröffentlicht

Künstliche IntelligenzOpenAI (chatgpt) präsentiert ein Tool zum Klonen von Stimmen

Die am Freitag von OpenAI vorgestellte „Voice Engine“ kann die Stimme einer Person aus einem 15-sekündigen Audiobeispiel reproduzieren.

AFP

OpenAI, Riese der generativen künstlichen Intelligenz (KI) und Herausgeber von ChatGPT, stellte am Freitag ein Tool zum Klonen von Stimmen vor, dessen Verwendung eingeschränkt wird, um Betrug oder Straftaten wie Identitätsdiebstahl zu verhindern.

Laut einer Erklärung von OpenAI zu den Ergebnissen eines kleinen Tests kann dieses KI-Modell mit der Bezeichnung „Voice Engine“ die Stimme einer Person aus einer 15-sekündigen Audioprobe reproduzieren.

„Wir sind uns bewusst, dass die Fähigkeit, menschenähnliche Stimmen zu erzeugen, ernsthafte Risiken birgt, die in diesem Wahljahr besonders wichtig sind“, sagte das in San Francisco ansässige Unternehmen.

„Wir arbeiten mit US-amerikanischen und internationalen Partnern aus Regierung, Medien, Unterhaltung, Bildung, Zivilgesellschaft und anderen Bereichen zusammen und berücksichtigen deren Feedback bei der Entwicklung des Tools.“

Entscheidendes Wahljahr

In diesem entscheidenden Wahljahr auf der ganzen Welt befürchten Desinformationsforscher den Missbrauch generativer KI-Anwendungen (automatisierte Produktion von Texten, Bildern usw.) und insbesondere Tools zum Klonen von Stimmen, die billig, einfach zu verwenden und schwer aufzuspüren sind.

OpenAI versicherte, dass es vor einer breiteren Verbreitung des neuen Tools „einen vorsichtigen und informierten Ansatz“ gewählt habe, „aufgrund des Potenzials für den Missbrauch synthetischer Stimmen“.

Diese vorsichtige Präsentation erfolgt nach einem großen politischen Vorfall, bei dem ein Berater, der für den Präsidentschaftswahlkampf eines demokratischen Rivalen von Joe Biden arbeitete, ein automatisiertes Programm entwickelte, das den amerikanischen Präsidenten imitierte, der für seine Wiederwahl kämpft.

Siehe auch  8 MOOCs, um zu lernen, wie Sie KI, ChatGPT und Blockchain in Ihre Arbeit integrieren

Die Stimme, die die von Joe Biden nachahmte, forderte die Wähler auf, sie zur Stimmenthaltung bei den Vorwahlen in New Hampshire zu ermutigen. Die Vereinigten Staaten haben seitdem Anrufe mit geklonten Stimmen, die von KI erzeugt wurden, verboten, um politische oder kommerzielle Betrügereien zu bekämpfen.

Zustimmung

OpenAI stellte klar, dass die Partner, die „Voice Engine“ testen, Regeln zugestimmt haben, die unter anderem die ausdrückliche und informierte Zustimmung aller Personen, deren Stimme dupliziert wird, und Transparenz für die Zuhörer erfordern: Sie müssen sich darüber im Klaren sein, dass die Stimmen, die sie hören, von KI erzeugt werden.

„Wir haben eine Reihe von Sicherheitsmaßnahmen implementiert, darunter ein Wasserzeichen, um die Herkunft aller von Voice Engine erzeugten Töne nachverfolgen zu können, sowie eine proaktive Überwachung seiner Verwendung“, betonte OpenAI.

Im vergangenen Oktober stellte das Weiße Haus Regeln und Grundsätze für die Entwicklung der KI vor, darunter auch die der Transparenz. Joe Biden war bewegt von der Idee, dass Kriminelle damit Menschen in die Falle locken, indem sie sich als Familienangehörige ausgeben.

(AFP)

5/5 - (350 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein