Lassen Sie uns über die wichtigsten Updates sprechen, die in implementiert wurden chatgpt in den letzten sechs Monaten – das leistungsstärkste neuronale Netzwerk der Welt. Es wird auch die Zukunftsvision hervorheben, die Sam Altman auf der OpenAI-Konferenz am 7. November geäußert hat.

Übrigens, in meinem Telegram-KanalVor nicht allzu langer Zeit erschien ein cooler Beitrag zum Thema, wie ich mein Einkommen mithilfe neuronaler Netze gesteigert und 3,6 Millionen Rubel für Werbung gespart habe.

ChatGPT entwickelt sich rasant.

Wie die Statistik heute zeigt ChatGpt von fast 50 % der Menschen genutzt. Neuronka ist sowohl bei Büroangestellten als auch bei Besitzern von Telegrammkanälen beliebt.

Auf der OpenAI DevDay 2023-Konferenz präsentierte Sam Altman, Leiter von OpenAI, die folgenden Informationen: Weekly Active Users (WAU) ChatGPT übersteigt einhundert Millionen Menschen. Interessanterweise werden normalerweise DAU (Daily Active Audience) oder MAU (Monthly Active Audience) verwendet, in diesem Fall wird jedoch von wöchentlicher Aktivität gesprochen.

Wir möchten Sie daran erinnern, dass das Produkt Anfang 2023 bereits von mehr als 100 Millionen Menschen pro Monat genutzt wurde. Wir können davon ausgehen, dass dieser Wert nicht wesentlich gestiegen ist, daher wurde beschlossen, die Darstellung der Daten leicht zu ändern. Laut Internet-Traffic-Daten beträgt die MAU beispielsweise etwa 180 Millionen, was für ein Produkt, das vor einem Jahr auf den Markt kam, immer noch recht beeindruckend ist!

Wenn Sie im Finanzwesen arbeiten, könnten Sie an folgenden Informationen interessiert sein: 92 % der Fortune-500-Unternehmen (die umsatzstärksten Unternehmen in den USA) nutzen bereits OpenAI-Produkte. Mit anderen Worten: Unternehmen erforschen aktiv, wie sie diese fortschrittliche Technologie nutzen können, um ihre Gewinne zu steigern.

Wie Sie wissen, gibt es jedoch eine Besonderheit: Wenn Sie ein neuronales Netzwerk auf der Grundlage von Chats trainieren, in denen Programmierer über ihre Arbeit kommunizieren, reagiert es schnell auf Anfragen im Stil von „Oh, ich bin so müde, jetzt sollte ich es tun.“ trinke statt dieser Kodierung einen frischen Smoothie …“

2023 im Frühjahr: Nützliche Ergänzungen und Erweiterungen für ChatGPT oder Möglichkeiten, den Betrieb des neuronalen Netzwerks zu konfigurieren

Viele Nutzer kritisieren schon lange und zu Recht die begrenzten Möglichkeiten von Sprachmodellen aufgrund des fehlenden Zugangs zum Internet. Dies bedeutet, dass Modelle keine neuen Informationen verwenden können, um Antworten auf Anfragen zu erstellen. Ihr Wissen beschränkt sich auf die Daten aus den Trainingsbeispielen. Darüber hinaus sind ihre mathematischen Fähigkeiten zunächst begrenzt und sie können nur Näherungsberechnungen durchführen, obwohl diese Näherungen manchmal genau sein können.

OpenAI hat dieses Problem verstanden und das Konzept der „Tools“ entwickelt. Dies erlaubt ChatGPT Rufen Sie externe Dienste auf, um komplexe Aufgaben auszuführen, die sogar komplexer sind als das Addieren zweier Zahlen. Fast unmittelbar nach der Veröffentlichung des GPT-4-Modells erschienen „Plugins“, darunter der Zugriff auf die Bing-Suchmaschine, um Wissen zu verschiedenen Themen basierend auf vom Modell generierten Textabfragen zu aktualisieren, und ein Code-Interpreter, der bestimmt, wann das Modell dies möchte führt ein Python-Programm aus, führt dieses Programm aus und zeigt das Ergebnis an.

Siehe auch  Ergebnisse der Chronikumfrage: ChatGPT | Die jüdische Chronik von Pittsburgh

Ein Beispiel für Chat-Kommunikation. Wie ein neuronales Netzwerk detaillierte Antworten aus Netzwerkquellen liefert.

Für den interessiertesten Leser stellt sich die Frage: Wie funktioniert das überhaupt? Wie kann man die reale Welt mit einem Sprachmodell „verbinden“, das nur Text lesen und schreiben kann? Um diese Frage zu beantworten, empfehle ich einen Blick auf Telegrammkanalin dem ich oft ähnliche Themen diskutiere.

Herbst 2023: Vorstellung des neuen Text-Grafik-Modells DALL-E 3

Ende September stellte OpenAI ein neues Produkt vor – das generative neuronale Netzwerk DALL-E 3. Dieses Modell ist wie seine Vorgänger der ersten und zweiten Generation in der Lage, Bilder basierend auf einer bestimmten Eingabeabfrage zu erstellen. Die meisten ähnlichen neuronalen Netze unterliegen jedoch strengen Einschränkungen: Je länger und detaillierter die Anfrage (Eingabeaufforderung), desto weniger stimmt das generierte Bild mit der Beschreibung überein.

Daher bestehen Eingabeaufforderungen oft nur aus ein bis zwei Sätzen und manchmal aus ein paar Wörtern, und die meisten Details bleiben der Fantasie des Modells überlassen. Für Künstler und Designer kann dieses Tool nützlich sein, aber nicht sein volles Potenzial ausschöpfen, da es ziemlich schwierig ist, ein Bild zu erstellen, das vollständig der Vision des Autors und der vorgegebenen Komposition entspricht.

Beispiel für die Bilderzeugung mit Dall Ee-3

Bei der Auswahl von Beispielen für die Werbung auf der offiziellen Website werden natürlich lieber die besten Beispiele gezeigt, sodass solche qualitativ hochwertigen Generationen nicht immer erhalten werden. Allerdings deuten bereits die ersten subjektiven Tests und Rezensionen im Internet darauf hin, dass beim DALL-E 3 auf viel Liebe zum Detail geachtet wird.

Das Funktionsprinzip von DALL-E 3 hat auf den ersten Blick nichts mit Chat-GPT zu tun, aber wenn man genauer hinschaut, wird ihr Zusammenhang klar. Zunächst einmal vor allem seine Funktionsweise. Von den ersten Tagen der Entwicklung an wird DALL-E 3 auf dieser Basis aufgebaut ChatGPTda es dieses Sprachmodell ist, das informative und genaue Abfragen erstellt (auch für zunächst „schief formulierte“ Abfragen).

Sie sollten kurz darauf hinweisen ChatGPTwas Sie sehen möchten, auch in Kürze. ChatGPT wird die Anfrage klären, zusätzliche Details hinzufügen und sie erst dann an DALL-E 3 übertragen. Diese Integration funktioniert genauso wie die oben beschriebene Idee der „Plugins“. Künstliche Intelligenz übernimmt einen Teil der Arbeit der Erstellung einer Anfrage! Wenn Sie in dieser Phase eine faule Person ersetzen und neue Ideen für das Bild anbieten, schreiben Sie „Glas“ und bekommen einen ganzen Sturm.

Siehe auch  Träumt ChatGPT von elektrischen Schafen?

Höchstwahrscheinlich war mehr als eine Chat-Anfrage nötig, um dieses Bild zu erstellen.

Übrigens, in meinem Telegram-Kanal Vor nicht allzu langer Zeit erschien ein cooler Beitrag zum Thema, wie ich mithilfe neuronaler Netze mein Einkommen steigerte und 3,6 Millionen Rubel an Werbung sparte. Auch im Kanal erhalten Sie Zugriff ChatGPT 4 und midjourney 5 ohne VPN

Herbst 2023: KI-unwirklicher Assistent, etwas Fantastisches

Erinnern Sie sich vielleicht an Siri, fragen Sie sich vielleicht: Unmittelbar nach seinem Erscheinen hatten wir das Gefühl, dass wir bald die Welt dieser superintelligenten und coolen Roboterassistenten kennenlernen würden, die uns perfekt verstehen und tausend Dinge tun können. Allerdings scheint es in mehr als einem Jahrzehnt der Produktentwicklung von apple keine großartigen Updates zu geben. Siri-Bot (oder wie heißt das jetzt richtig?) ist immer noch dumm, weil er den Ruf „meine Mutter“ und „meine Frau“ verwechselt …

Inzwischen, im September, ein Update der mobilen Anwendung für ChatGPT, sodass er sehen, hören und sprechen kann. Jetzt verfügt das leistungsstärkste neuronale Netzwerk unserer Zeit über eine praktische Schnittstelle für die Kommunikation mit Ihnen. Und was am wichtigsten ist: Es versteht Dutzende von Sprachen, kann darauf reagieren und ist auch in der Lage, die Suchmaschine (sorry: „Bing“) unter der Haube zu nutzen.

Beispielhafte Audio-Interaktionen mit chatGpt

Hier und jetzt: GPT-4, schnallen Sie sich an, schalten Sie den Turbo ein!

Es scheint, dass wir endlich den 7. November erreicht haben, der sich als Tag der OpenAI DevDay 2023-Konferenz herausstellte. Dieses Ereignis war der Grund für das Verfassen dieses Materials. Auf der Konferenz wurden mehr als ein Dutzend kleine und große Updates für fast alle Produkte des Unternehmens angekündigt.

Apropos GPT-4: Diese Technologie hat sich in den letzten sechs Monaten erheblich weiterentwickelt und zusätzliche Tools und Schnittstellen hinzugefügt. Einige Unternehmen haben es bereits in ihrem Unternehmen implementiert und auch damit begonnen, Produkte zu entwickeln, die ausschließlich auf dieser Technologie basieren.

Allerdings hat GPT-4 immer noch seine Grenzen und die Entwickler waren gespannt darauf, zu sehen, was sie auf der Konferenz sehen konnten. OpenAI startete mit einer Einführung in GPT-4-Turbo, in der bis zu sieben Verbesserungen angekündigt wurden, von denen viele jedoch technischer Natur sind, da sich die Konferenz in erster Linie an Entwickler richtet. Wir werden uns jedoch auf die wichtigsten und interessantesten Änderungen konzentrieren.

Siehe auch  Die Prognosen von ChatGPT für den XRP-Preis bleiben optimistisch

Wenn Sie verwendet haben ChatGPT Im Laufe des letzten Jahres ist Ihnen vielleicht aufgefallen, dass das Modell Fragen zu Ereignissen nach September 2021 nicht versteht (oder sogar imaginäre Antworten gibt). Um solche Informationen zu verarbeiten, war es notwendig, die Arbeitsweise mit der Bing-Suchmaschine zu nutzen. Oder Sie können manuell ein Textdokument hochladen und das Modell es „lesen“ lassen und Antworten geben, die dem Text entsprechen.

Auf der Konferenz wurde bekannt gegeben, dass der aktuelle Wissensstand des Modells bis April 2023 aktualisiert wurde und in Zukunft nicht geplant ist, so lange Zeitlücken „im Gedächtnis“ des Modells zu hinterlassen. Dies bedeutet, dass das neuronale Netzwerk etwa alle 1–3 Monate auf einen neueren Stand aktualisiert wird. Hauptsache, nichts von der Vergangenheit geht verloren!

Sie sagen, dass die KI während des Trainings Widerstand geleistet und geweint habe …

Übrigens, in meinem Telegram-Kanal Vor nicht allzu langer Zeit erschien ein cooler Beitrag zum Thema, wie ich mithilfe neuronaler Netze mein Einkommen steigerte und 3,6 Millionen Rubel an Werbung sparte. Auch im Kanal erhalten Sie Zugriff ChatGPT 4 und Midjourney 5 ohne VPN

Darüber hinaus verfügt das Modell über eine verbesserte Datei-Upload-Funktion – Sie können jetzt bis zu mehrere Gigabyte Ihrer Dateien auf die OpenAI-Website hochladen, und beim Generieren einer Antwort sucht das Modell zunächst nach relevanten Informationen auf den Seiten, bevor es diese produziert eine Antwort. Dies bedeutet nicht, dass das Problem für alle Arten von Fragen vollständig und endgültig gelöst ist, aber es wird sicherlich die Qualität der Antworten in dem Wissensbereich, der Sie interessiert, erheblich verbessern.

Darüber hinaus wurde die Länge des Modellkontexts auf 128.000 Token erhöht, was mehr als 300 Textseiten entspricht. Jetzt können Sie mit dirigieren ChatGPT Führen Sie über mehrere Wochen hinweg einen kontinuierlichen Dialog durch und stellen Sie sicher, dass das Modell die in der letzten Woche besprochenen Details nicht verliert.

Es ist anzumerken, dass dies derzeit der größte von privaten Unternehmen angebotene Kontext ist und Anthropic mit dem Claude-2-Modell und seinem Kontext von 100.000 Token übertrifft. Vor diesem Hintergrund tauchten unter den offenen (aber gleichzeitig begrenzteren) GPTs erst gestern „Riesen“ mit einem Fenster von 200.000 Token auf.

Der Leser stellt sich logischerweise die Frage: Warum sind so lange Chats überhaupt nötig und welchen Nutzen haben sie?

Es sind mehrere Szenarien vorstellbar:

1. Die Möglichkeit, in die Eingabeaufforderung des zu entwickelnden Assistentenmodells nicht nur eine Datei oder ein Codefragment, sondern das gesamte Projekt oder einen wesentlichen Teil davon zu integrieren. In diesem Fall kann die künstliche Intelligenz besser navigieren und verstehen, welche Hinweise gegeben werden sollten und welche Fehler auftreten können. Das Gleiche gilt auch für einen Musteranwalt, der beispielsweise alle Steuergesetze in einer Sitzung erlernen kann.

2. Eine umfangreiche Anleitung schreiben, die die Länge eines Buches hat und alle Feinheiten der auszuführenden Aufgabe beschreibt. Oftmals ignoriert das Modell einige für Menschen lesbare Funktionen und die Eingabeaufforderung bietet nicht genügend Platz für Details. Aber jetzt wird dieses Problem gelöst!

3. Eine der effektivsten Methoden zur Verbesserung der Qualität von Modellantworten ist das Few-Shot-Prompting: Benutzer zeigen dem neuronalen Netzwerk Dutzende Beispiele dessen, was von ihm verlangt wird, bevor sie die Aufgabe stellen. Natürlich kann eine Reihe solcher Beispiele nicht jedes Detail der Logik abdecken, aber wenn sie auf Tausende von Beispielen erweitert wird, kann sich die Situation dramatisch ändern.

Das ultimative Ziel solcher Änderungen besteht darin, die Gesamtqualität der Antworten zu verbessern ChatGPT indem Sie die Aufgabe detaillierter beschreiben und Beispiele, Anweisungen oder einen detaillierten Kontext für die Arbeit bereitstellen. Es kann davon ausgegangen werden, dass diejenigen, die über den unvermeidlichen Verlust des Prompt Engineering vor dem Aufkommen von Long-Context-Modellen argumentierten, einfach nur über eine begrenzte Vorstellungskraft verfügten. Tatsächlich fangen wir gerade erst an, vollständige Eingabeaufforderungen zu schreiben (und automatisch zu generieren)!

5/5 - (488 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein