Der Riese für künstliche Intelligenz OpenAI hat Voice Engine eingeführt, ein Tool zum Klonen der Stimme einer Person aus einem 15-sekündigen Audiobeispiel.
Die Verwendung dieses KI-Modells werde eingeschränkt, um Betrug oder Straftaten wie Identitätsdiebstahl zu verhindern, sagte OpenAI in einer Erklärung.
Lesen Sie auch | Künstliche Intelligenz. Innovationsvektor für KMU
„Wir sind uns bewusst, dass die Fähigkeit, menschenähnliche Stimmen zu erzeugen, ernsthafte Risiken birgt, die in diesem Wahljahr besonders groß sind“, sagte das Unternehmen und fügte hinzu, dass es mit US-amerikanischen und internationalen Partnern aus dem ganzen Land zusammenarbeite. Regierung, Medien, Unterhaltung , Bildung, Zivilgesellschaft und andere Sektoren unter Berücksichtigung ihrer Kommentare
Gefahr geklonter Sprachanrufe
OpenAI versicherte, dass es vor einer breiteren Verbreitung des neuen Tools „einen vorsichtigen und informierten Ansatz“ gewählt habe, „aufgrund des Potenzials für den Missbrauch synthetischer Stimmen“, und wies darauf hin, dass die Partner, die „Voice Engine“ testen, Regeln akzeptiert haben, die insbesondere explizite und explizite Anforderungen erfordern Einverständniserklärung aller Personen, deren Stimme dupliziert wird, und Transparenz für die Zuhörer sowie die Implementierung einer Reihe von Sicherheitsmaßnahmen, einschließlich eines Wasserzeichens, um die Herkunft jedes von KI erzeugten Tons nachvollziehen zu können.
Lesen Sie auch | Beschleunigt künstliche Intelligenz das menschliche Abenteuer? [Par Eric Besson]
Diese vorsichtige Darstellung erfolgt nach einem großen politischen Vorfall, bei dem jemand ein automatisiertes Programm entwickelte, das sich als der amerikanische Präsident ausgab, für seine Wiederwahl kämpfte und die Wähler aufforderte, sie zur Stimmenthaltung zu bewegen.
Die Vereinigten Staaten haben seitdem Anrufe mit geklonten Stimmen, die von KI erzeugt wurden, verboten, um politische oder kommerzielle Betrügereien zu bekämpfen.