OpenAI hat mehrere neue Funktionen hinsichtlich seiner Modelle und Preise angekündigt. Diese Änderungen sind in erster Linie für Entwickler interessant, die die OpenAI-API verwenden, dienen aber auch als Indikatoren für zukünftige Optionen, die Nicht-Entwicklern zur Verfügung stehen. Das Unternehmen unternahm auch große Anstrengungen, um technische Probleme zu lösen, die einige Benutzer zu der Behauptung veranlassten, dass GPT-4 bei der Beantwortung bestimmter Codierungsfragen begonnen habe, „faul“ zu werden und diese Fragen praktisch nicht zu beantworten.

Obwohl chatgpt weiterhin der Chatbot der Wahl in der Geschäftswelt ist, gibt es auch andere Optionen, und sie beginnen auch, mehr geschäftsorientierte Optionen anzubieten.

GPT-3.5 Turbo API und Preise aktualisiert

GPT-3.5 Turbo ist das Modell, mit dem die meisten Menschen interagieren, normalerweise über ChatGPT, und es dient als eine Art Industriestandard. Es ist auch eine beliebte API, die für viele Aufgaben günstiger und schneller als GPT-4 ist. Zahlende Benutzer werden sich also freuen zu erfahren, dass die Einstiegspreise um 50 % und die Ausstiegspreise um 25 % sinken, nämlich 0,0005 US-Dollar pro tausend eingehende Token und 0,0015 US-Dollar pro tausend ausgegebene Token.

Dadurch können Benutzer textintensivere Anwendungen wie die Analyse von Dokumenten oder ganzen Büchern ausführen, ohne ihr Budget zu sprengen. OpenAI muss sich in der Tat einer wachsenden Konkurrenz durch Open-Source- oder selbstverwaltete Modelle stellen, die mit seinem technologischen Fortschritt aufholen. Daher der regelmäßige Preisverfall, der auch das natürliche Ergebnis der Rationalisierung der Modelle und der Verbesserung der Infrastruktur ist.

GPT-3.5 Turbo erhält ebenfalls eine neue Modellversion, 0125 (d. h. 25. Januar), die verschiedene Verbesserungen, aber offenbar nur wenige Dinge enthält, die OpenAI für erwähnenswert hielt. Die letzte Version war 0613 (also das Datum 13. Juni), daher ist es etwas überraschend, dass nicht mehr erwähnt wurde.

Zitat Gesendet von OpenAI
Nächste Woche werden wir ein neues GPT-3.5 Turbo-Modell vorstellen, gpt-3.5-turbo-0125, und zum dritten Mal in einem Jahr werden wir die Preise für GPT-3.5 Turbo senken, um unseren Kunden die Wende zu erleichtern. Die Einstiegspreise für das neue Modell werden um 50 % auf 0,0005 $/1.000 Token reduziert und die Ausstiegspreise werden um 25 % auf 0,0015 $/1.000 Token reduziert. Dieses Modell wird außerdem verschiedene Verbesserungen aufweisen, darunter eine höhere Antwortgenauigkeit in angeforderten Formaten und die Behebung eines Fehlers, der ein Problem bei der Textkodierung für Funktionsaufrufe in anderen Sprachen als Englisch verursachte.
Siehe auch  Wie Unternehmen das Kundenerlebnis mit ChatGPT-basierten Contact Centern verbessern können

Kunden, die den Alias ​​der gpt-3.5-turbo-Vorlage verwenden, werden zwei Wochen nach der Einführung dieser Vorlage automatisch von gpt-3.5-turbo-0613 auf gpt-3.5-turbo-0125 aktualisiert.

Aktualisierter GPT-4 Turbo, das fortschrittlichste Modell von OpenAI

GPT-4 Turbo, das fortschrittlichste Modell von OpenAI, das neben Sprache auch Vision integriert, hat ebenfalls eine neue Vorschauversion erhalten, die auch 0125 heißt. Diese Version behebt ein überraschendes Problem: das träge GPT-4, das nicht funktionierte. Tatsächlich hatten einige Benutzer festgestellt, dass das Modell bestimmte Aufgaben wie die Codegenerierung nicht erledigte und sich mit minimalen oder leeren Antworten zufrieden gab. OpenAI verbesserte daher die Fähigkeit des Modells, die angeforderten Aufgaben zu erledigen, ohne die Ursache dieser künstlichen Faulheit zu erklären. GPT-4 Turbo with Vision (GPT-4 V) sollte in den kommenden Monaten für jedermann verfügbar sein:

Zitat Gesendet von OpenAI
GPT-4 Turbo-Vorschau-Update

Mehr als 70 % der GPT-4-API-Kundenanfragen sind seit der Veröffentlichung auf GPT-4 Turbo umgestiegen, da Entwickler von der aktualisierten Wissensschwelle, größeren 128.000 Popups und niedrigeren Preisnachlässen profitieren.

Heute veröffentlichen wir eine aktualisierte GPT-4 Turbo-Vorschauvorlage, gpt-4-0125-preview. Dieses Modell erledigt Aufgaben wie die Codegenerierung umfassender als das Vorgängermodell und zielt darauf ab, Fälle von „Faulheit“ zu reduzieren, bei denen das Modell eine Aufgabe nicht erfüllt. Das neue Modell umfasst auch die Behebung des Fehlers, der nicht-englische UTF-8-Generationen betrifft.

Für diejenigen, die automatisch auf neue Versionen von GPT-4 Turbo aktualisiert werden möchten, führen wir außerdem einen neuen Modellnamen alias gpt-4-turbo-preview ein, der immer auf unser neuestes Modell von GPT-4 Turbo verweist.

Wir planen, GPT-4 Turbo mit Vision in den kommenden Monaten allgemein verfügbar zu machen.

Weitere Verbesserungen

Aktualisiertes Moderationsmodell

Das Unternehmen hat eine neue Version seiner kostenlosen Moderations-API veröffentlicht, die potenziell gefährliche Texte identifiziert. Suchen Sie nach Version 007, wenn Sie diese API verwenden möchten, um Ihre Moderationsanforderungen zu erfüllen:

Siehe auch  ChatGPT „trinkt“ einen halben Liter Wasser pro 20–50 Anfragen – ITC.ua

Mit der kostenlosen Moderations-API können Entwickler potenziell gefährliche Texte identifizieren. Im Rahmen unserer fortlaufenden Arbeit an der Sicherheit veröffentlichen wir text-moderation-007, unser bislang robustestes Moderationsmodell. Die Aliase text-moderation-latest und text-moderation-stable wurden aktualisiert, um auf dieses Modell zu verweisen. Weitere Informationen zum Erstellen sicherer KI-Systeme finden Sie in unserem Leitfaden zu Best Practices für Sicherheit.

Neue Integrationsmodelle mit günstigeren Preisen

Es gibt auch eine Handvoll neuer und verbesserter Textintegrationsvorlagen, die sich eher an Techniker richten.

Wir führen zwei neue Einbettungsmodelle ein: ein kleineres und effizienteres Text-Embedding-3-Small-Modell und ein größeres und leistungsfähigeres Text-Embedding-3-Large-Modell.

Eine Einbettung ist eine Zahlenfolge, die Konzepte innerhalb von Inhalten wie natürlicher Sprache oder Code darstellt. Durch Einbettungen können maschinelle Lernmodelle und andere Algorithmen Beziehungen zwischen Inhalten verstehen und Aufgaben wie Gruppierung oder Suche ausführen. Sie unterstützen Anwendungen wie ChatGPT Knowledge Search und die Assistants API sowie viele Entwicklungstools für Research Augmented Generation (RAG).

A

Ein neues Modell zum Einbetten von kleinem Text

text-embedding-3-small ist unsere neue, hocheffiziente Einbettungsvorlage und stellt eine deutliche Verbesserung gegenüber ihrem Vorgänger, der im Dezember 2022 veröffentlichten Vorlage text-embedding-ada-002, dar.

Erhöhte Leistung. Beim Vergleich des Modells text-embedding-ada-002 mit dem Modell text-embedding-3-small stieg die durchschnittliche Punktzahl bei einem häufig verwendeten Benchmark für die mehrsprachige Suche (MIRACL) von 31,4 % auf 44,0 %, während die durchschnittliche Punktzahl bei einem häufig verwendeten Benchmark für die mehrsprachige Suche (MIRACL) von 31,4 % auf 44,0 % stieg Der verwendete Benchmark für Englischaufgaben (MTEB) stieg von 61,0 % auf 62,3 %.

Reduzierter Preis. text-embedding-3-small ist auch viel effizienter als unser text-embedding-ada-002-Modell der vorherigen Generation. Der Preis von text-embedding-3-small wurde daher im Vergleich zu text-embedding-ada-002 durch 5 geteilt, von einem Preis für 1.000 Token von 0,0001 $ auf 0,00002 $.

Wir entfernen text-embedding-ada-002 nicht. Obwohl wir die neue Vorlage empfehlen, können Kunden weiterhin die Vorlage der vorherigen Generation verwenden.

Ein neues Modell zum Einbetten von großem Text: text-embedding-3-large

text-embedding-3-large ist unsere neue große Texteinbettungsvorlage der nächsten Generation und erstellt Einbettungen mit bis zu 3072 Dimensionen.

Siehe auch  Das ChatGPT der Robotik ist da ... Und es ist sehr beängstigend. | von Kye Gomez | September 2023

Bessere Leistung. text-embedding-3-large ist unsere neue leistungsstärkste Vorlage. Vergleich von text-embedding-ada-002 text-embedding-3-large: Bei MIRACL stieg die durchschnittliche Punktzahl von 31,4 % auf 54,9 %, während bei MTEB die durchschnittliche Punktzahl von 61,0 % auf 64,6 % stieg.

A

YouTube Video

Abschluss

Diese Ankündigungen zeigen, dass OpenAI im Bereich der künstlichen Intelligenz weiterhin Innovationen hervorbringt und sich anpasst, indem es immer leistungsfähigere und zugänglichere Modelle anbietet. Sie werfen aber auch Fragen nach den ethischen und technischen Grenzen dieser Technologien auf, die erhebliche Auswirkungen auf die Gesellschaft haben können.

In der Zwischenzeit erörterte der CEO von OpenAI in einem Interview die Entwicklungen bei GPT-5, die uns in diesem Jahr erwarten könnten. Sam Altman sprach auch über eine andere Art, Ihren Computer mithilfe von KI zu nutzen:

Ich denke, was wir anstreben, und darüber spreche ich dieses Jahr nicht, ist, dass wir uns auf eine andere Art der Computernutzung zubewegen, bei der man mit dem Betriebssystem „kommuniziert“, wie man es bei einem Katzenexperiment tun würde ein KI-Experiment. Anstatt einen Browser zu öffnen, Gmail einzugeben und sich Ihre E-Mails anzusehen oder was auch immer, könnten Sie einfach sagen: „Was waren meine wichtigsten E-Mails heute? Können Sie alle beantworten?“ Finden Sie dies, senden Sie das l.“ Ich denke, mit jeder großen technologischen Revolution haben wir die Möglichkeit, einen Computer auf eine neue Art und Weise zu nutzen, und wir werden dieses Jahr nicht dorthin gelangen, aber ich denke, wir werden sehen, dass Menschen immer mehr ihrer Stream-Arbeit innerhalb eines Sprachmodells erledigen.

Quelle : OpenAI

Und du ?

Fleche Welche(s) neue(n) Feature(s) interessieren Sie am meisten? Fleche Was halten Sie vom Preisverfall bei OpenAI? Sind das gute Nachrichten für Entwickler und Benutzer? Fleche Was sind die möglichen Anwendungen von GPT-4 Turbo mit Vision? Welche technischen und ethischen Herausforderungen bringt es mit sich? Fleche Wie lässt sich das Phänomen des Lazy GPT-4 erklären? Fleche Welche ChatGPT-Alternativen kennen Sie? Welches haben Sie ausprobiert oder möchten Sie ausprobieren? Wenn Sie es ausprobiert haben, was denken Sie?

5/5 - (490 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.