OpenAI scheint Schwierigkeiten mit dem Begriff Einwilligung, Gesetzgebung und Urheberrecht im Allgemeinen zu haben, wie die jüngste Kontroverse um die berühmte Schauspielerin Scarlett Johansson zeigt.
Zum gleichen Thema:
Der Ursprung der Kontroverse: ein peinlicher Kontakt mit Scarlett Johansson
Seit mehreren Wochen sieht sich OpenAI, das Unternehmen hinter dem berühmten chatgpt, mit besorgniserregenden Vorwürfen konfrontiert. Nach den Klagen der New York Times wegen illegaler Datennutzung und Verdachtsmomenten rund um das Training ihrer Video-Generation-KI Sora auf Millionen von YouTube-Videos kommt ein noch kniffligerer Fall ans Licht: die angebliche Vereinnahmung der Stimme von Scarlett Johansson für den neuen Sprachassistenten „Himmel“.
Im September 2023 erhält Scarlett Johansson einen Anruf von Sam Altman, dem Chef von OpenAI. Aus strategischer Sicht bat Altman die Schauspielerin, GPT Voice ihre Stimme zu leihen. Dieser im Mai 2024 vorgestellte Sprachassistent hätte laut Altman Johanssons Bekanntheit, insbesondere durch seine Rolle als Stimme der KI im Film „Her“, ausnutzen können, um Vertrauen bei den Nutzern aufzubauen.
Die Schauspielerin lehnte dies jedoch nach reiflicher Überlegung unter Berufung auf persönliche Gründe kategorisch ab. Obwohl diese Entscheidung eindeutig war, hinderte sie einige Beobachter nicht daran, auffällige Ähnlichkeiten zwischen der Stimme von GPT Voice und der von Johansson festzustellen.
Der unangenehme Tweet und die Rückkehr von Sam Altman
Ein bedeutendes Ereignis findet am 13. Mai 2024 statt, dem Tag der Präsentation von GPT Voice. Altman postet einen einfachen Tweet mit dem Wort „her“, eine explizite Anspielung auf den Film, in dem Johansson seine Stimme geliehen hat. Diese als Provokation empfundene Veröffentlichung weckt Verdacht hinsichtlich der nicht einvernehmlichen Verwendung der Stimme der Schauspielerin.
Erschwerend kam hinzu, dass Altman Johanssons Agenten nur 48 Stunden vor der offiziellen Demonstration kontaktierte, um erneut seine Genehmigung einzuholen. Ohne auf eine Antwort zu warten, fährt OpenAI mit der Demonstration fort, einschließlich der Stimme von Sky.
Sam Altmans offizielles Dementi
Angesichts des Ausmaßes der Anschuldigungen sieht sich OpenAI gezwungen, ein Dementi zu veröffentlichen. Sam Altman begründet seine Position in einer Pressemitteilung:
„Skys Stimme ist nicht die von Scarlett Johansson und sollte auch nie wie sie klingen. Wir haben die Stimme von Sky rekrutiert, bevor wir Kontakt mit Frau Johansson aufgenommen haben. Aus Respekt vor Frau Johansson haben wir aufgehört, die Stimme von Sky in unseren Produkten zu verwenden. Es tut uns leid, dass Frau Johansson nicht besser kommuniziert hat. »
Diese Ablehnung hinterlässt jedoch mehrere Grauzonen. Wenn Skys Stimme nie wie die von Johansson klingen sollte, warum kontaktierte Altman die Schauspielerin dann zweimal? Wenn zuvor ein anderer Künstler ausgewählt wurde, warum entfernt OpenAI plötzlich Skys Stimme?
Umstrittene Präzedenzfälle: ein besorgniserregender Trend
Die Johansson-Affäre ist kein Einzelfall. OpenAI wurde bereits zuvor mit ähnlicher Kritik konfrontiert. Die New York Times hat eine Klage wegen illegaler Nutzung ihrer Daten eingereicht und es kursieren Gerüchte, dass Sora AI unerlaubt mit YouTube-Videos trainiert habe. Diese Geschichte wirft einen Schatten auf die Praktiken des Unternehmens und wirft Fragen hinsichtlich der Achtung des Urheberrechts und der Einwilligung auf.
Die Glaubwürdigkeit von OpenAI wird erneut auf die Probe gestellt. Johanssons Vorwürfe ergänzen die bereits lange Liste der Beschwerden und schwächen das Image des Unternehmens weiter. Für OpenAI ist es unerlässlich, überzeugend auf diese Kritik zu reagieren, um das Vertrauen wiederherzustellen und die Einhaltung der Gesetze nachzuweisen.
Perspektiven und Verhöre
Dieser Fall wirft entscheidende Fragen für die Zukunft der KI und des Urheberrechtsschutzes auf. Wo liegen in einer Zeit der zunehmenden Verbreitung fortschrittlicher Technologien die Grenzen der Ethik und des Respekts gegenüber dem Einzelnen? OpenAI muss seine Fähigkeit unter Beweis stellen, unter Wahrung der Gesetze und Rechte aller zu agieren.
Es ist wichtig zu fragen: Wird diese Kontroverse andere Technologieunternehmen dazu ermutigen, ihre Praktiken zu überprüfen? Wie können wir sicherstellen, dass Stimmen sowohl im wörtlichen als auch im übertragenen Sinne in einer Welt, die zunehmend von künstlicher Intelligenz dominiert wird, geschützt bleiben?