OpenAI kündigt einen deutlichen Preisverfall für sein GPT-4o-Modell an. Diese Reduzierung erfolgt mitten in einem Preiskampf mit google. Darüber hinaus stehen jetzt neue Funktionen zur Verfügung, die den Benutzern das Leben erleichtern.
GPT-4o ist die neueste Entwicklung des Modellskünstliche Intelligenz GPT-4 von OpenAI. Letzteres ermöglicht Ihnen nicht nur die Generierung von Text, sondern dank seiner verbesserten Sehfähigkeiten auch die Verarbeitung von Bildern. Zudem ist er schneller und sparsamer als seine Vorgänger und damit auch noch leistungsstärker ideal für eine Vielzahl von Anwendungenvon natürlichen Gesprächen mit Benutzern bis hin zu komplexen Analysen.
Kürzlich, OpenAI angekündigt a Preisnachlass für GPT-4o. Damit liefert es sich einen regelrechten Preiskampf mit Googles Gemini 1.5 Pro, das mittlerweile überall integriert wird. Tatsächlich sind bei letzterem auch die Preise gesunken. Es wird jetzt für 3,50 $ (ca. 3,20 €) pro Million Input-Tokens und 10,50 $ (ca. 9,60 €) pro Million Output-Tokens angeboten. Dieser intensive Wettbewerb drückt die Preise, was den Nutzern nicht missfallen soll.
OpenAI gleicht die chatgpt-Preise an Googles Gemini 1.5 Pro an
Das GPT-4o-Modell war ursprünglich vorgeschlagen bei 5,00 $ (ca. 4,60 €) pro Million Input-Tokens und 15,00 $ (ca. 13,70 €) pro Million Output-Tokens. Von jetzt an, diese Preise sind reduziert bei 2,50 $ (ca. 2,30 €) für Input-Tokens und 10,00 $ (ca. 9,10 €) für Exit-Tokens.
Aber was genau ist ein Token? Ein Token ist eine vom Modell verwendete Texteinheit. Beispielsweise kann ein gebräuchliches Wort wie „Katze“ eine Person darstellen, während längere Wörter oder ganze Sätze mehrere umfassen. Für Standardabonnenten, die bereits das monatliche Abonnement für GPT-4o bezahlen, bedeutet diese Preissenkung daher, dass sie mehr Token für ihr Geld bekommen können. Dies wird es ihnen ermöglichenNutzen Sie mehr KI ohne zusätzliche Kosten.
Zusätzlich zu dieser Preissenkung hat OpenAI „Structured Exits“ eingeführt. Das neue Funktion trägt dazu bei, dass die vom Modell generierten Antworten genau den erwarteten Datenformaten entsprechen. Dies ist besonders nützlich für Profis und fortgeschrittene Benutzer, die KI in bestimmte Anwendungen integrieren. Sie werden somit in der Lage sein, zu erhalten genauere Ergebnisse und sich an ihre Bedürfnisse anpassen, ohne zahlreiche Änderungen vornehmen zu müssen.