{„id“:726193,“type“num“,“link“https:\/\/vc.ru\/future\/726193-openai-obnovlyaet-svoi-neyroseti-gpt-4-obrabatyvaet- foto-chatgpt-stal-deshevle-i-drugoe“,“gtm“:““,“prevCount“:null,“count“:0,“isAuthorized“:false}
{„id“:726193,“type“:1,“typeStr“:content“,showTitle“:false,“initialState“:{„isActive“:false},“gtm“:“}
{„id“:726193,“gtm“:null}
OpenAI hat heute eine Ankündigung bzw. Nachricht gemacht, dass einige gute Updates kommen.
Mal sehen, was sie geschrieben haben. OpenAI. google Translate hilft uns.
Wir haben gpt-3.5-turbo und gpt-4 Anfang des Jahres veröffentlicht und in nur wenigen Monaten gesehen unglaubliche Appsvon Entwicklern auf Basis dieser Modelle erstellt.
Heute verfolgen wir einige interessante Updates:
- Neue Möglichkeit, eine Funktion in der Chat-End-API aufzurufen
- aktualisierte und besser verwaltbare Versionen von gpt-4 und gpt-3.5-turbo
- neue Kontextversion mit 16K-Auflösung gpt-3.5-turbo (im Vergleich zur Standard-4K-Version)
- 75 % Kostenreduzierung dank unseres hochmodernen Gebäudemodells
- 25 % Reduzierung der Eingabe-Token-Kosten für gpt-3.5-turbo
- Die Modelle gpt-3.5-turbo-0301 und gpt-4-0314 sind veraltet
Alle diese Modelle verfügen über die gleichen Datenschutz- und Datensicherheitsgarantien, die wir am 1. März eingeführt haben – Kunden sind Eigentümer aller aus ihren Anfragen generierten Ausgaben und ihre API-Daten werden nicht für Schulungen verwendet.
Funktionsaufruf
Entwickler können jetzt Funktionen in gpt-4-0613 und gpt-3.5-turbo-0613 definieren und das Modell dazu zwingen, auf intelligente Weise ein JSON-Objekt auszugeben, das Argumente zum Aufrufen dieser Funktionen enthält. Dies ist eine neue Möglichkeit, GPT-Funktionen sicherer mit externen Tools und APIs zu verbinden.
Diese Modelle wurden so optimiert, dass sie sowohl bestimmen, wann eine Funktion aufgerufen werden soll (abhängig von der Benutzereingabe), als auch mit JSON antworten, das der Signatur der Funktion entspricht. Durch den Aufruf einer Funktion können Entwickler strukturierte Daten zuverlässiger aus dem Modell abrufen. Entwickler können beispielsweise:
- Erstellen Sie Chatbots, die Fragen beantworten, indem Sie externe Tools aufrufen (z. B. ChatGPT-Plugins).
Wandeln Sie Abfragen wie „Schreiben Sie Anya, um zu sehen, ob sie nächsten Freitag Kaffee möchte“ in einen Aufruf einer Funktion wie send_email(to: string, body: string) oder „Wie ist das Wetter in Boston?“ um. in get_current_weather(location: string, unit: ‚celsius‘ | ‚fahrenheit‘).
- Konvertieren Sie natürliche Sprache in API-Aufrufe oder Datenbankabfragen
Transformieren Sie die Frage „Wer ist mein Top-10-Kunde diesen Monat?“ an einen internen API-Aufruf wie get_customers_by_revenue(start_date: string, end_date: string, limit: int) oder „Wie viele Bestellungen Acme, Inc. letzten Monat gepostet? zu einer SQL-Abfrage mit sql_query(query: string).
- Extrahieren strukturierter Daten aus Text
Definieren Sie eine aufrufbare Funktion extract_people_data(people: [{name: string, birthday: string, location: string}]), um alle im Wikipedia-Artikel erwähnten Personen zu extrahieren.
Diese Anwendungsfälle werden durch neue API-Optionen in unserem /v1/chat/completions-Endpunkt, Funktionen und function_call unterstützt, die es Entwicklern ermöglichen, Modellfunktionen mithilfe eines JSON-Schemas zu beschreiben und es optional aufzufordern, eine bestimmte Funktion aufzurufen. Schauen Sie sich unsere an Entwicklerdokumentation Und Bewertungen hinzufügenwenn Sie Fälle finden, in denen der Funktionsaufruf verbessert werden könnte
Seit der Veröffentlichung der Alpha-Version der ChatGPT-Plugins haben wir viel darüber gelernt, wie Tools und Sprachmodelle sicher zusammenarbeiten können. Allerdings bleiben Forschungsfragen weiterhin offen. Der Proof-of-Concept-Exploit veranschaulicht beispielsweise, wie nicht vertrauenswürdige Daten aus der Ausgabe eines Tools Modelle anweisen können, unbeabsichtigte Aktionen auszuführen. Wir arbeiten daran, diese und andere Risiken zu mindern. Entwickler können ihre Anwendungen schützen, indem sie nur Informationen von vertrauenswürdigen Tools verwenden und Schritte zur Benutzerverifizierung einbeziehen, bevor sie Aktionen mit echten Konsequenzen durchführen, wie z. B. das Versenden von E-Mails, das Veröffentlichen im Internet oder das Tätigen eines Kaufs.
Neue Modelle
GPT-4
gpt-4-0613 enthält ein aktualisiertes und verbessertes Modell mit einem Funktionsaufruf.
gpt-4-32k-0613 enthält die gleichen Verbesserungen wie gpt-4-0613, zusammen mit einer größeren Kontextlänge für ein besseres Verständnis großer Texte.
Mit diesen Updates werden wir viel mehr Menschen einladen Warteliste Probieren Sie GPT-4 in den kommenden Wochen aus, mit der Absicht, die Warteliste mit diesem Modell vollständig zu eliminieren. Vielen Dank an alle, die geduldig gewartet haben. Wir sind gespannt, was Sie mit GPT-4 erstellen!
GPT-3.5 Turbo
gpt-3.5-turbo-0613 umfasst den gleichen Funktionsaufruf wie GPT-4 sowie eine robustere Steuerbarkeit über eine Systemnachricht, zwei Funktionen, die es Entwicklern ermöglichen, Modellreaktionen effektiver zu steuern.
gpt-3.5-turbo-16k bietet die vierfache gpt-3.5-turbo-Kontextlänge zum doppelten Preis von 0,003 $ für 1.000 Eingabe-Tokens und 0,004 $ für 1.000 Ausgabe-Tokens. Ein 16-KByte-Kontext bedeutet, dass das Modell jetzt etwa 20 Textseiten in einer einzigen Anfrage unterstützen kann.
Legacy-Modelle
Heute beginnen wir mit der Aktualisierung und Einstellung der ursprünglichen Versionen von gpt-4 und gpt-3.5-turbo, die wir durchgeführt haben im März angekündigt. Apps mit stabilen Modellnamen (gpt-3.5-turbo, gpt-4 und gpt-4-32k) werden am 27. Juni automatisch auf die oben aufgeführten neuen Modelle aktualisiert. Um die Modellleistung zwischen Versionen zu vergleichen, unsere Evals-Bibliothek unterstützt öffentliche und private Auswertungen, um zu zeigen, wie sich Modelländerungen auf Ihre Anwendungsfälle auswirken.
Entwickler, die mehr Zeit für die Umstellung benötigen, können weiterhin ältere Modelle verwenden, indem sie gpt-3.5-turbo-0301, gpt-4-0314 oder gpt-4-32k-0314 im Parameter „model“ ihrer API-Anfrage angeben. Diese älteren Modelle sind bis zum 13. September verfügbar. Danach werden Anfragen für diese Modellnamen fehlschlagen. Über unsere können Sie über veraltete Modelle auf dem Laufenden bleiben Seite zur Modellveralterung. Dies ist das erste Update für diese Modelle; also wir freuen uns darauf Entwicklerbewertungenum uns dabei zu helfen, einen reibungslosen Übergang zu gewährleisten.
Tiefere Preise
Wir verbessern weiterhin die Effizienz unserer Systeme und geben diese Einsparungen ab heute an Entwickler weiter.
Einbettungen
text-embedding-ada-002 ist unser beliebtestes Einbettungsmodell. Heute reduzieren wir die Kosten um 75 % auf 0,0001 $ pro 1000 Token.
GPT-3.5 Turbo
gpt-3.5-turbo ist unser beliebtestes Chat-Modell und unterstützt ChatGPT für Millionen von Benutzern. Heute reduzieren wir die Kosten für die Eingabetoken von gpt-3.5-turbo um 25 %. Entwickler können dieses Modell jetzt für nur 0,0015 US-Dollar pro 1.000 Eingabe-Tokens und 0,002 US-Dollar pro 1.000 Ausgabe-Tokens verwenden, was etwa 700 Seiten pro Dollar entspricht.
gpt-3.5-turbo-16k kostet 0,003 $ für 1.000 Eingabe-Tokens und 0,004 $ für 1.000 Ausgabe-Tokens.
Das Feedback der Entwickler ist der Eckpfeiler unserer Plattformentwicklung und wir werden basierend auf den Vorschlägen, die wir hören, weiterhin Verbesserungen vornehmen. Wir sind gespannt, wie Entwickler diese neuesten Modelle und neuen Funktionen in ihren Anwendungen nutzen.
Es gefällt! Ein Grund, unsere Projekte mit neuronalen Netzen zu aktualisieren.