OpenAI hat mit der schrittweisen Einführung seines „erweiterten Sprachassistenten“ begonnen und ab heute kann eine kleine Anzahl zahlender chatgpt-Benutzer versuchen, mit dem KI-Chatbot zu sprechen. Es wird erwartet, dass OpenAI den Umfang der Sprachassistenten langsam erweitert, und es wird erwartet, dass alle ChatGPT Plus-Mitglieder bis zum Herbst Zugriff auf diese neue Funktion haben werden.
Das Unternehmen kündigte auf der X an, dass diese erweiterte Version des Sprachmodus „natürlichere Gespräche in Echtzeit ermöglicht, sodass Sie jederzeit unterbrechen und Ihre Emotionen spüren und darauf reagieren können“.
Wir beginnen damit, den erweiterten Sprachmodus für eine kleine Gruppe von ChatGPT Plus-Benutzern einzuführen. Der erweiterte Sprachmodus bietet natürlichere Gespräche in Echtzeit, ermöglicht es Ihnen, jederzeit zu unterbrechen, und erkennt und reagiert auf Ihre Emotionen. pic.twitter.com/64O94EhhXK
— OpenAI (@OpenAI) 30. Juli 2024
ChatGPT hat im September letzten Jahres tatsächlich die Unterstützung für Sprachgespräche eingeführt, aber die damalige Lösung erforderte die Verbindung von drei unabhängigen Modellen: eines zum Konvertieren Ihrer Stimme in Text, eines zum Analysieren und Generieren von Textantworten und das andere zum Konvertieren in Text Antworten werden in Sprache umgewandelt. Es wird zwangsläufig einige Ungenauigkeiten in der Verbindung geben, und es wird unmöglich sein, den Ton und die Emotionen wiederzugeben, die man hört. Im Mai dieses Jahres demonstrierte OpenAI das neue GPT-4o-Modell, das eine einzige Multimodalität zur Implementierung von Sprachfunktionen verwendet, d. h. ein Modell umfasst alle Sprachanalyse-, Antwort- und Sprachausgabefunktionen. Dies führt nicht nur zu passenderen und emotionaleren Reaktionen, sondern reduziert auch die Latenz bei Gesprächen mit dem Chatbot.
OpenAI erhielt während einer Episode im Mai viel Kritik, als die gezeigte Stimme sehr nach der Stimme von Scarlett Johansson klang, der Schauspielerin, die die KI-Figur Samantha im Film „Her“ verkörperte. Obwohl OpenAI nach der Gegenreaktion darauf bestand, dass die Synchronsprecher Johansson nicht absichtlich imitierten, verzögerte sich das Veröffentlichungsdatum des erweiterten Sprachmodus immer noch, und auch Laute mit ähnlicher Aussprache wurden entfernt.
In Verbindung stehende Artikel:
-
„Black Widow“ Scarlett Johansson warf OpenAI vor, ihre Stimme unbefugt für Sprachassistenten zu nutzen, und die umstrittene ChatGPT-Synchronisation wurde inzwischen deaktiviert
-
OpenAI liefert weitere Beweise dafür, dass es nicht die Absicht hat, Scarlett Johanssons Stimme in ChatGPT zu reproduzieren
-
OpenAI verschiebt die Einführung des „erweiterten Sprachassistenten“ auf Herbst
-
Das OpenAI GPT-4o-Modell wird erstmals vorgestellt und integriert gleichzeitig die Eingabe und Ausgabe von Text, Sprache und Bildern
Bleiben Sie mit den neuesten Technologienachrichten und Online-Shopping-Angeboten auf dem Laufenden und folgen Sie Yahoo Tech auf allen wichtigen sozialen Plattformen!
🎉📱Tech Facebook:https://www.facebook.com/yahootechhk
🎉📱 Tech Instagram:https://www.instagram.com/yahootechhk/
🎉📱 Technische WhatsApp-Community:https://chat.whatsapp.com/Dg3fiiyYf3yG2mgts4Mii8
🎉📱 Tech WhatsApp-Kanal:https://whatsapp.com/channel/0029Va91dmR545urVCpQwq2D
🎉📱 Tech-Telegram-Kanal:https://t.me/yahootechhk