Dachten Sie, dass Sie bald wie ein Mensch mit chatgpt kommunizieren können? Wir müssen noch etwas warten. OpenAI hat gerade eine Verschiebung seiner neuen Sprachfunktionen angekündigt.
In einem Update FrühlingOpenAI hat mit seinem GPT-4o-Modell die neuen Funktionen von ChatGPT bereitgestellt. Auf dem Programm stehen neue Sprachfunktionen und ein verbesserter Sprachassistent, der zunächst Abonnenten vorbehalten ist.
Abonnieren
Auf Discord enthüllt OpenAI seine Kalenderänderungen. Wir befinden uns derzeit in einer Alpha-Phase der neuen Sprachfunktionen. Sie sollten Ende Juni verfügbar sein, letztendlich müssen wir bis Ende Juli warten.
Warum diese Verschiebung? OpenAI führt zwei Hauptgründe an. Erstens arbeiten die Entwickler noch daran, sicherzustellen, dass das Modell Inhalte erkennt, auf die es nicht reagieren sollte. Es geht eindeutig darum, Ausrutscher und unangemessene Antworten zu vermeiden, ein entscheidendes Thema für Konversations-KI.
Dann ist da noch die Frage der Infrastruktur. Für Millionen von Benutzern in Echtzeit von Text zu Sprache zu wechseln, ist keine leichte Aufgabe. OpenAI braucht Zeit, um seine Server auf diese Flut von Sprachanfragen vorzubereiten.
OpenAI ändert seine Gesamtstrategie nicht: eine schrittweise Bereitstellung. Zuerst eine kleine Gruppe von ChatGPT Plus-Nutzern Ende Juni (verschoben auf Ende Juli), dann eine schrittweise Erweiterung. Ziel ist es, dass bis zum Herbst alle Plus-Abonnenten die Sprachfunktion nutzen können.
Ein menschlicherer Assistent
Neben diesen sprachlichen Verbesserungen arbeitet OpenAI auch an seinen Bildschirm- und Video-Sharing-Funktionen. Der Assistent kann den Inhalt Ihres Bildschirms oder Aufnahmen Ihrer Kamera erfassen und analysieren.
In der Praxis enthüllte Microsoft, das mit OpenAI zusammenarbeitet, im Jahr 2024, wie der auf GPT-4o basierende CoPilot-Assistent einem Minecraft-Spieler Ratschläge zum Erstellen seines Builds geben konnte. Mit diesen Verbesserungen wird ChatGPT zu einem zunehmend menschlichen Gesprächspartner, bis es seine Reaktionszeit erreicht, nämlich 320 Millisekunden, wo es im Durchschnitt einige Sekunden dauerte, um eine Antwort zu berechnen. Bei dieser Geschwindigkeit könnte der Chatbot auch eine Reihe von Reaktionen kombinieren, um bei Anfragen überrascht oder sarkastisch zu wirken.
Diese Ankündigungen und Präsentationen, so beeindruckend sie auch sind, wurden vorerst nur im Rahmen von Demonstrationen gemacht. Es bleibt abzuwarten, wie diese Funktionen im täglichen Leben genutzt werden und inwieweit sie angesichts tausender gleichzeitiger Anfragen relevant bleiben.