Obwohl chatgpt weiterhin der Chatbot der Wahl in der Geschäftswelt ist, gibt es auch andere Optionen, und sie beginnen auch, mehr geschäftsorientierte Optionen anzubieten.
GPT-3.5 Turbo API und Preise aktualisiert
GPT-3.5 Turbo ist das Modell, mit dem die meisten Menschen interagieren, normalerweise über ChatGPT, und es dient als eine Art Industriestandard. Es ist auch eine beliebte API, die für viele Aufgaben günstiger und schneller als GPT-4 ist. Zahlende Benutzer werden sich also freuen zu erfahren, dass die Einstiegspreise um 50 % und die Ausstiegspreise um 25 % sinken, nämlich 0,0005 US-Dollar pro tausend eingehende Token und 0,0015 US-Dollar pro tausend ausgegebene Token.
Dadurch können Benutzer textintensivere Anwendungen wie die Analyse von Dokumenten oder ganzen Büchern ausführen, ohne ihr Budget zu sprengen. OpenAI muss sich in der Tat einer wachsenden Konkurrenz durch Open-Source- oder selbstverwaltete Modelle stellen, die mit seinem technologischen Fortschritt aufholen. Daher der regelmäßige Preisverfall, der auch das natürliche Ergebnis der Rationalisierung der Modelle und der Verbesserung der Infrastruktur ist.
GPT-3.5 Turbo erhält ebenfalls eine neue Modellversion, 0125 (d. h. 25. Januar), die verschiedene Verbesserungen, aber offenbar nur wenige Dinge enthält, die OpenAI für erwähnenswert hielt. Die letzte Version war 0613 (also das Datum 13. Juni), daher ist es etwas überraschend, dass nicht mehr erwähnt wurde.
Aktualisierter GPT-4 Turbo, das fortschrittlichste Modell von OpenAI
GPT-4 Turbo, das fortschrittlichste Modell von OpenAI, das neben Sprache auch Vision integriert, hat ebenfalls eine neue Vorschauversion erhalten, die auch 0125 heißt. Diese Version behebt ein überraschendes Problem: das träge GPT-4, das nicht funktionierte. Tatsächlich hatten einige Benutzer festgestellt, dass das Modell bestimmte Aufgaben wie die Codegenerierung nicht erledigte und sich mit minimalen oder leeren Antworten zufrieden gab. OpenAI verbesserte daher die Fähigkeit des Modells, die angeforderten Aufgaben zu erledigen, ohne die Ursache dieser künstlichen Faulheit zu erklären. GPT-4 Turbo with Vision (GPT-4 V) sollte in den kommenden Monaten für jedermann verfügbar sein:
Weitere Verbesserungen
Aktualisiertes Moderationsmodell
Das Unternehmen hat eine neue Version seiner kostenlosen Moderations-API veröffentlicht, die potenziell gefährliche Texte identifiziert. Suchen Sie nach Version 007, wenn Sie diese API verwenden möchten, um Ihre Moderationsanforderungen zu erfüllen:
Mit der kostenlosen Moderations-API können Entwickler potenziell gefährliche Texte identifizieren. Im Rahmen unserer fortlaufenden Arbeit an der Sicherheit veröffentlichen wir text-moderation-007, unser bislang robustestes Moderationsmodell. Die Aliase text-moderation-latest und text-moderation-stable wurden aktualisiert, um auf dieses Modell zu verweisen. Weitere Informationen zum Erstellen sicherer KI-Systeme finden Sie in unserem Leitfaden zu Best Practices für Sicherheit.
Neue Integrationsmodelle mit günstigeren Preisen
Es gibt auch eine Handvoll neuer und verbesserter Textintegrationsvorlagen, die sich eher an Techniker richten.
Wir führen zwei neue Einbettungsmodelle ein: ein kleineres und effizienteres Text-Embedding-3-Small-Modell und ein größeres und leistungsfähigeres Text-Embedding-3-Large-Modell.
Eine Einbettung ist eine Zahlenfolge, die Konzepte innerhalb von Inhalten wie natürlicher Sprache oder Code darstellt. Durch Einbettungen können maschinelle Lernmodelle und andere Algorithmen Beziehungen zwischen Inhalten verstehen und Aufgaben wie Gruppierung oder Suche ausführen. Sie unterstützen Anwendungen wie ChatGPT Knowledge Search und die Assistants API sowie viele Entwicklungstools für Research Augmented Generation (RAG).
Ein neues Modell zum Einbetten von kleinem Text
text-embedding-3-small ist unsere neue, hocheffiziente Einbettungsvorlage und stellt eine deutliche Verbesserung gegenüber ihrem Vorgänger, der im Dezember 2022 veröffentlichten Vorlage text-embedding-ada-002, dar.
Erhöhte Leistung. Beim Vergleich des Modells text-embedding-ada-002 mit dem Modell text-embedding-3-small stieg die durchschnittliche Punktzahl bei einem häufig verwendeten Benchmark für die mehrsprachige Suche (MIRACL) von 31,4 % auf 44,0 %, während die durchschnittliche Punktzahl bei einem häufig verwendeten Benchmark für die mehrsprachige Suche (MIRACL) von 31,4 % auf 44,0 % stieg Der verwendete Benchmark für Englischaufgaben (MTEB) stieg von 61,0 % auf 62,3 %.
Reduzierter Preis. text-embedding-3-small ist auch viel effizienter als unser text-embedding-ada-002-Modell der vorherigen Generation. Der Preis von text-embedding-3-small wurde daher im Vergleich zu text-embedding-ada-002 durch 5 geteilt, von einem Preis für 1.000 Token von 0,0001 $ auf 0,00002 $.
Wir entfernen text-embedding-ada-002 nicht. Obwohl wir die neue Vorlage empfehlen, können Kunden weiterhin die Vorlage der vorherigen Generation verwenden.
Ein neues Modell zum Einbetten von großem Text: text-embedding-3-large
text-embedding-3-large ist unsere neue große Texteinbettungsvorlage der nächsten Generation und erstellt Einbettungen mit bis zu 3072 Dimensionen.
Bessere Leistung. text-embedding-3-large ist unsere neue leistungsstärkste Vorlage. Vergleich von text-embedding-ada-002 text-embedding-3-large: Bei MIRACL stieg die durchschnittliche Punktzahl von 31,4 % auf 54,9 %, während bei MTEB die durchschnittliche Punktzahl von 61,0 % auf 64,6 % stieg.
Abschluss
Diese Ankündigungen zeigen, dass OpenAI im Bereich der künstlichen Intelligenz weiterhin Innovationen hervorbringt und sich anpasst, indem es immer leistungsfähigere und zugänglichere Modelle anbietet. Sie werfen aber auch Fragen nach den ethischen und technischen Grenzen dieser Technologien auf, die erhebliche Auswirkungen auf die Gesellschaft haben können.
In der Zwischenzeit erörterte der CEO von OpenAI in einem Interview die Entwicklungen bei GPT-5, die uns in diesem Jahr erwarten könnten. Sam Altman sprach auch über eine andere Art, Ihren Computer mithilfe von KI zu nutzen:
Ich denke, was wir anstreben, und darüber spreche ich dieses Jahr nicht, ist, dass wir uns auf eine andere Art der Computernutzung zubewegen, bei der man mit dem Betriebssystem „kommuniziert“, wie man es bei einem Katzenexperiment tun würde ein KI-Experiment. Anstatt einen Browser zu öffnen, Gmail einzugeben und sich Ihre E-Mails anzusehen oder was auch immer, könnten Sie einfach sagen: „Was waren meine wichtigsten E-Mails heute? Können Sie alle beantworten?“ Finden Sie dies, senden Sie das l.“ Ich denke, mit jeder großen technologischen Revolution haben wir die Möglichkeit, einen Computer auf eine neue Art und Weise zu nutzen, und wir werden dieses Jahr nicht dorthin gelangen, aber ich denke, wir werden sehen, dass Menschen immer mehr ihrer Stream-Arbeit innerhalb eines Sprachmodells erledigen.
Quelle : OpenAI
Und du ?
Welche(s) neue(n) Feature(s) interessieren Sie am meisten? Was halten Sie vom Preisverfall bei OpenAI? Sind das gute Nachrichten für Entwickler und Benutzer? Was sind die möglichen Anwendungen von GPT-4 Turbo mit Vision? Welche technischen und ethischen Herausforderungen bringt es mit sich? Wie lässt sich das Phänomen des Lazy GPT-4 erklären? Welche ChatGPT-Alternativen kennen Sie? Welches haben Sie ausprobiert oder möchten Sie ausprobieren? Wenn Sie es ausprobiert haben, was denken Sie?