[ad_1]
Dieses als „Voice Engine“ bezeichnete Modell der künstlichen Intelligenz (KI) kann laut einer Pressemitteilung von OpenAI zu den Ergebnissen eines kleinen Tests die Stimme einer Person aus einer 15-sekündigen Audioprobe reproduzieren.
OpenAI, Riese der generativen künstlichen Intelligenz (KI) und Herausgeber von chatgpt, stellte am Freitag ein Tool zum Klonen von Stimmen vor, dessen Verwendung eingeschränkt wird, um Betrug oder Straftaten wie Identitätsdiebstahl zu verhindern. Laut einer Pressemitteilung von OpenAI zu den Ergebnissen eines kleinen Tests kann dieses KI-Modell mit der Bezeichnung „Voice Engine“ die Stimme einer Person aus einem 15-sekündigen Audio-Sample reproduzieren.
Ängste vor Missbrauch
„Wir sind uns bewusst, dass die Fähigkeit, menschenähnliche Stimmen zu erzeugen, ernsthafte Risiken birgt, die in diesem Wahljahr besonders groß sind“, sagte das in San Francisco ansässige Unternehmen. „Wir arbeiten mit US-amerikanischen und internationalen Partnern aus Regierung, Medien, Unterhaltung, Bildung, Zivilgesellschaft und anderen Bereichen zusammen und berücksichtigen deren Feedback bei der Entwicklung des Tools.“
In diesem entscheidenden Wahljahr auf der ganzen Welt befürchten Desinformationsforscher den Missbrauch generativer KI-Anwendungen (automatisierte Produktion von Texten, Bildern usw.) und insbesondere Tools zum Klonen von Stimmen, die billig und einfach zu verwenden sind. OpenAI versicherte, dass es vor einer breiteren Verbreitung des neuen Tools „einen vorsichtigen und informierten Ansatz“ gewählt habe, „aufgrund des Potenzials für den Missbrauch synthetischer Stimmen“.
Diese vorsichtige Präsentation erfolgt nach einem großen politischen Vorfall, bei dem ein Berater, der für den Präsidentschaftswahlkampf eines demokratischen Rivalen von Joe Biden arbeitete, ein automatisiertes Programm entwickelte, das den amerikanischen Präsidenten imitierte, der für seine Wiederwahl kämpft. Die Stimme, die die von Joe Biden nachahmte, forderte die Wähler auf, sie zur Stimmenthaltung bei den Vorwahlen in New Hampshire zu ermutigen.
Explizite und strenge Regeln
Die Vereinigten Staaten haben seitdem Anrufe mit geklonten Stimmen, die von KI erzeugt wurden, verboten, um politische oder kommerzielle Betrügereien zu bekämpfen. OpenAI gab an, dass die Partner, die „Voice Engine“ testen, Regeln akzeptiert haben, die insbesondere die ausdrückliche und informierte Zustimmung von erfordern Jeder, dessen Stimme dupliziert wird, und Transparenz für die Zuhörer: Sie müssen sich darüber im Klaren sein, dass die Stimmen, die sie hören, von KI erzeugt werden.
„Wir haben eine Reihe von Sicherheitsmaßnahmen implementiert, darunter ein Wasserzeichen, um die Herkunft aller von Voice Engine erzeugten Töne nachverfolgen zu können, sowie eine proaktive Überwachung seiner Verwendung“, betonte OpenAI. Im vergangenen Oktober stellte das Weiße Haus Regeln und Grundsätze für die Entwicklung der KI vor, darunter auch die der Transparenz. Joe Biden war bewegt von der Idee, dass Kriminelle damit Menschen in die Falle locken, indem sie sich als Familienangehörige ausgeben.
[ad_2]