Es ist schwer, durch eine Nachrichten-Website zu scrollen und nicht irgendwo „chatgpt“ zu sehen. Seit seiner Veröffentlichung am 20. November 2022 hat der frühreife Chatbot 100 Millionen aktive Nutzer pro Monat erreicht und ist bei einigen der meistgesuchten Begriffe von google in die Höhe geschnellt.
Trotz seiner Beliebtheit können bemerkenswert wenige Menschen auf den ersten Blick sagen, wofür das „GPT“ in ChatGPT steht: Es ist „Generative Pre-trained Transformer“.
ChatGPT wurde von OpenAI entwickelt und ist ein Computerprogramm, das künstliche Intelligenz (KI) nutzt Textbasierte Gespräche mit menschlichen Benutzern. Stellen Sie ihm eine Frage (im Rahmen des Zumutbaren) Oder geben Sie eine Anfrage und ChatGPT antwortet mit einem Textblock, der sich bemerkenswert natürlich und menschlich anfühlen kann.
Technisch gesehen handelt es sich um einen großen, auf Sprachmodellen basierenden Chatbot, das heißt, er wird mit unglaublichen Mengen textbasierter Daten – wie Büchern, Nachrichtenartikeln und Webseiten – gefüttert, aus denen er lernt, Sätze zu bilden.
Es kann für alle Arten von Zwecken verwendet werden, z. B. zum Schreiben von Computercode, als virtueller Chatbot-Assistent, zur Erstellung von Inhalten und sogar zum Schreiben von Nachrichtenartikeln (mit gemischtem Erfolg).
Mit einer gehörigen Portion Ironie haben wir ChatGPT von OpenAI gebeten, den Begriff „Generative Pre-trained Transformer“ aufzuschlüsseln. Es antwortete:
„Generative Pre-trained Transformer“ ist ein Begriff, der die wichtigsten Merkmale und Merkmale der Sprachmodellarchitektur beschreibt. Lassen Sie uns die Bedeutung jeder Komponente aufschlüsseln:
1) Generativ: Im Kontext der Verarbeitung natürlicher Sprache bedeutet „generativ“, dass das Modell in der Lage ist, neuen Text zu generieren, der der menschlichen Sprache ähnelt. Basierend auf den im Training erlernten Mustern kann es kohärente und kontextbezogene Sätze, Absätze oder längere Texte erstellen.
2) Vorab trainiert: „Vorab trainiert“ bezieht sich auf die Anfangsphase des Trainings des Modells anhand eines großen Datensatzes, der große Textmengen aus dem Internet oder anderen Quellen enthält. Während des Vortrainings lernt das Modell, das nächste Wort in einem Satz basierend auf den vorhergehenden Wörtern vorherzusagen. Dieser Prozess ermöglicht es dem Modell, die in den Daten vorhandenen statistischen Muster und Beziehungen zu erfassen.
3) Transformer: Der „Transformer“ ist eine spezielle Art von Deep-Learning-Architektur, die im Artikel „Attention Is All You Need“ von Vaswani et al. vorgestellt wurde. im Jahr 2017. Es nutzt Selbstaufmerksamkeitsmechanismen, um Eingabesequenzen parallel zu verarbeiten, sodass das Modell bei der Generierung der Ausgabe die Bedeutung verschiedener Wörter in der Eingabe berücksichtigen kann. Transformatoren erfreuen sich aufgrund ihrer Fähigkeit, weitreichende Abhängigkeiten zu bewältigen, und ihrer Parallelisierungsfähigkeiten großer Beliebtheit bei der Verarbeitung natürlicher Sprache.“
Schön ausgedrückt, ChatGPT. Bitte stehlen Sie mir noch nicht den Job.
Neben ChatGPT von OpenAI gibt es noch einige andere GPTs. Es gibt BloombergGPT, das eine ähnliche KI-Technologie wie ChatGPT von OpenAI verwendet, aber speziell auf Daten im Zusammenhang mit Finanzen und der Finanzbranche geschult wurde. Es gibt auch GPT-Neo, ein Open-Source-Modell für große Sprachen, das von GPT-3 von OpenAI inspiriert ist.
Derzeit sind OpenAI und ChatGPT die bekanntesten Namen im Bereich „Generative Pre-trained Transformer“, aber es gibt viele andere Unternehmen, die um den Spitzenplatz konkurrieren.
Alle „Erklär“-Artikel werden zum Zeitpunkt der Veröffentlichung von Faktenprüfern auf ihre Richtigkeit bestätigt. Texte, Bilder und Links können zu einem späteren Zeitpunkt bearbeitet, entfernt oder ergänzt werden, um die Informationen aktuell zu halten.