Diese Woche hat OpenAI die neueste Version seines bahnbrechenden chatgpt AI-Chatbots auf den Markt gebracht.

Obwohl es sich nicht um ChatGPT-5 handelt, ist das Hinzufügen des „o“ – was für „Omni“ steht – am Ende von entscheidender Bedeutung. Es unterstreicht, dass ChatGPT-4o mit Sprach-, Text- und visuellen Interaktionen vertrauter ist als je zuvor.

Hier sind die fünf bedeutendsten Verbesserungen gegenüber dem Vorgänger.

ChatGPT-4o ist für alle kostenlos

Dies ist zweifellos das wichtigste Upgrade für Gelegenheitsbenutzer. Bisher war das intelligentere GPT-4 nur für diejenigen zugänglich, die bereit waren, 20 US-Dollar pro Monat für ein Plus-Abonnement auszugeben. Dank der verbesserten Effizienz ist GPT-4o nun laut OpenAI für jeden Benutzer kostenlos.

Das bedeutet jedoch nicht, dass der Abschluss eines kostenpflichtigen Abonnements keine wesentlichen Vorteile mit sich bringt. Bezahlte Benutzer erhalten nicht nur fünfmal mehr Eingabeaufforderungen pro Tag (Konversationen werden auf das eingeschränktere GPT-3.5 zurückgesetzt, sobald dieses aufgebraucht ist), sondern die großen Verbesserungen des Sprachmodus sind für kostenlose Konten zunächst tabu (sie sind hier nicht verfügbar). (noch nicht, aber basierend auf der Demo werden die Sprach- und Bildfunktionen bahnbrechend sein.)

Große Verbesserungen bei Abfragen im Sprachmodus

GPT-4 verfügt über einen Sprachmodus, der jedoch ziemlich eingeschränkt ist. Es kann jeweils nur auf eine Eingabeaufforderung reagieren und ähnelt damit einer aufgemotzten Alexa, google Assistant oder Siri. Das hat sich mit GPT-4o massiv geändert, wie das Video unten zeigt.

Siehe auch  Bei ChatGPT bangen Soap-Autoren um Jobs, bis die KI die Corrie-Folge schreibt – und das ist Quatsch

Es lohnt sich, selbst zuzuschauen, aber zusammenfassend ist ChatGPT nicht nur in der Lage, in atemberaubender Echtzeit eine „Gutenachtgeschichte über Roboter und Liebe“ zu erfinden, sondern kann auch spontan auf Unterbrechungen reagieren und nach Änderungen fragen. Zur Freude des Publikums ist GPT-4o in der Lage, die Dramatik seiner Stimme zu steigern, zu roboterhaften Tönen zu wechseln und die Geschichte sogar auf den Punkt zu bringen und die Geschichte mit einem Lied zu beenden.

Entscheidend ist, dass es auf all diese Änderungen reagierte, ohne den Hauptthema des Gesprächs zu vergessen – etwas, mit dem die besten Smart Speaker derzeit einfach nicht umgehen können.

Verbesserte Sehfähigkeiten

Die beeindruckende Präsentation im Sprachmodus führte zu einer noch eindrucksvolleren Demonstration der Sehfähigkeiten. GPT-4o konnte dabei helfen, eine schriftliche lineare Gleichung zu lösen, die mit einer Telefonkamera in Echtzeit erfasst wurde. Entscheidend ist, dass dies geschah, ohne die angeforderte Antwort preiszugeben.

Am Ende der Demo fühlt sich die KI geschmeichelt, als „I ❤️ ChatGPT“ aufgeschrieben wird, damit sie sie „sehen“ kann.

Es ist nicht schwer herauszufinden, wie dies in der realen Welt verwendet werden könnte – um einen Code zu erklären oder einen fremden Text auf Englisch zusammenzufassen. Aber es ist nicht nur Text: Eine zweite Demo erkannte richtig Glück und Aufregung auf dem Gesicht eines frischen Selfies.

Derzeit scheinen die verbesserten Sehfähigkeiten auf statische Bilder abzuzielen. Dennoch glaubt OpenAI, dass GPT-4o in naher Zukunft in der Lage sein wird, Dinge mit Videos zu machen – Zum Beispiel eine Sportveranstaltung ansehen und die Regeln erklären.

Siehe auch  ChatGPT für Social Media und Facebook-Werbung

Viel schneller

Obwohl ChatGPT-4 erstaunlich schnell ist, lässt es Sie die Zahnräder sehen, insbesondere bei komplexeren Abfragen. ChatGPT-4o ist laut OpenAI „viel schneller“, und das ist bei der Verwendung definitiv spürbar.

Wenn Sie dazu genaue Zeitangaben wünschen, XDA-Entwickler hat ein paar Benchmarks geliefert.

Eine Antwort mit 488 Wörtern erschien in GPT-4o in weniger als 12 Sekunden, während eine ähnliche Antwort „unter GPT-4 zeitweise fast eine Minute Generierung erfordern würde“. Es war auch in der Lage, eine CSV-Datei in weniger als einer Minute zu erstellen, während „GPT-4 fast genauso lange brauchte, um die im Beispiel verwendeten Städte zu generieren.“

Native Apps für Mac und (mit der Zeit) Windows

(Bildnachweis: OpenAI)

Die Webversion mag für die meisten Menschen ausreichend sein, aber es gibt gute Nachrichten für diejenigen, die sich eine Desktop-App wünschen.

OpenAI hat eine spezielle Mac-App veröffentlicht, die derzeit für Plus-Abonnenten im Early Access verfügbar ist. Da es sich jedoch um einen gestaffelten Rollout handelt, müssen Sie warten, bis Sie eine E-Mail von OpenAI mit einem Download-Link erhalten. Selbst wenn Sie eine legitime .dmg-Datei finden, können Sie diese erst verwenden, wenn Ihr Konto grünes Licht für die Verwendung erhalten hat.

Was ist mit Windows? Nun, OpenAI sagt, dass eine Windows-App bis Ende 2024 fertig sein soll. Vielleicht liegt die Verzögerung daran, dass Microsoft windows 11-Benutzer immer noch dazu drängt, den ChatGPT-basierten Copilot zu verwenden.

Mehr von Tom's Guide

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein