OpenAI hat sein eigenes Angebot verbessert und günstiger gemacht. Das neue große Sprachmodell für chatgpt reduziert die Häufigkeit, mit der sich der Chatbot „faul“ verhält. Entwickler können jetzt auch dafür sorgen, dass KI-Modelle Texte besser verstehen.

Bezahlte ChatGPT-Dienste werden etwas günstiger. Beispielsweise ist die Verwendung von GPT-3.5 Turbo jetzt für Eingabedaten 50 % günstiger als zuvor und für Ausgabedaten 25 % günstiger. OpenAI stellt fest, dass 70 % der Unternehmensbenutzer bereits von GPT-4 auf GPT-4 Turbo umgestiegen sind, was ebenfalls günstiger ist.

Das neue Vorschaumodell GPT-4 Turbo bietet bemerkenswerte Verbesserungen. „Es wird berichtet, dass gpt-4-0125-preview Aufgaben wie die Codegenerierung umfassender ausführt, was zu weniger Faulheit führt.“ Benutzer berichten seit langem, dass ChatGPT immer weniger leistungsfähig zu sein scheint. Beispielsweise bezeichnete ein Benutzer im OpenAI-Entwicklerforum im November es als „dümmer“ als zuvor, mit mehr falschem Code und schlechterem Speicher.

Dies wurde bereits Anfang letzten Jahres wissenschaftlich bestätigt. Eine Studie der Stanford University und der University of California in Berkeley ergab beispielsweise, dass ein Chatbot komplexe mathematische Fragen weniger genau beantwortete als zuvor. Allerdings konnte der Chatbot besser mit unerwünschten Fragen umgehen. Es sieht also so aus, als ob ChatGPT nach und nach weniger nutzlos, aber auch weniger effektiv geworden ist. Das neue Modell soll dieses Problem lösen.

OpenAI führt außerdem zwei neue Einbettungsmodelle ein. OpenAI definiert eine Einbettung als „eine Reihe von Zahlen, die Konzepte in Inhalten wie natürlicher Sprache oder Code darstellen“. Neue Modelle sind deutlich effizienter und daher günstiger.

Das Einbetten hat viele Vorteile. Sie ermöglichen es Unternehmen beispielsweise, ihren eigenen Text oder Code für die KI-Implementierung vorzubereiten, indem sie ihn verschlüsseln. KI-Modelle können dann die Beziehungen zwischen verschiedenen Wörtern und Zahlen lernen, um genaue Antworten zu liefern. OpenAI nutzt diese Methodik auch, um ChatGPT- und API-Assistenten den Wissenserwerb zu ermöglichen.

Siehe auch  Rick & Morty-Schöpfer nutzte umstrittene KI-Kunst für neuen Shooter

Von nun an macht OpenAI die Einrichtung von API-Schlüsseln komfortabler. Entwickler können diesen Schlüsseln jetzt auf einer speziellen Seite auf der OpenAI-Plattform Berechtigungen zuweisen. Das Unternehmen verspricht jedoch, dass die Daten niemals zum Trainieren oder Verbessern eigener KI-Modelle verwendet werden.

Übrigens ist das Thema Datenschutz durch OpenAI seit dem Aufkommen des GPT Store komplexer geworden. Diese Lösung bietet nämlich Benutzer-GPTs von Drittanbietern, was bedeutet, dass Benutzerdaten an diese gelangen können.

5/5 - (120 votes)
Anzeige