Dies ist keine Anlageberatung. Der Autor hält keine Position in einer der genannten Aktien. WCCF TECH INC verfügt über eine Offenlegungs- und Ethikrichtlinie.
Elon Musks xAI hat endlich ein brandneues KI-basiertes Textgenerierungsmodell vorgestellt. Der Chatbot mit dem Namen Grok soll als Antwort des Startups auf die anhaltende Popularität des allgegenwärtigen chatgpt dienen. Letztendlich hofft Musk, Grok in Millionen vollständig KI-fähiger Tesla-Elektrofahrzeuge zu integrieren.
Bereits im Juli 2023 startete Elon Musk offiziell seinen Versuch, mit der Einführung von xAI die Spitze der Welt der generativen künstlichen Intelligenz zu erobern Die Existenzberechtigung konzentriert sich auf die Schaffung einer „maximal wahrheitssuchenden KI“, die versucht, die wahre Natur des Universums zu verstehen.
Wie wir damals festgestellt hatten, schien das Team von xAI recht vielseitig zu sein. Die Mitarbeiter rekrutierten sich aus dem Who-is-Who der KI-Welt, darunter DeepMind, OpenAI, google Research, Microsoft Research, Tesla und der University of Toronto. Um ein Large Language Model (LLM) nach dem Muster von OpenAIs ChatGPT zu trainieren, hat xAI offenbar einige Hebel eingesetzt 10.000 GPUs die im ersten Halbjahr 2023 von NVIDIA gekauft wurden.
xAIs Grok: Ein KI-Modell, das wie kein anderes AGI das „Gespür“ für Nachrichten hat
Elon Musk hatte gestern angekündigt, dass xAI am Samstag sein erstes generatives KI-Modell einer „ausgewählten Gruppe“ zugänglich machen werde, und fügte hinzu, dass es „in einigen wichtigen Aspekten das Beste ist, was derzeit existiert“.
Der https://t.co/eYvuZLEhfE / Grōk AI auf der X-Plattform (zukünftig multimodal):
– Bisher scheint die Größe eines SuperPrompt-Kontextfensters mit Grōk 25.000 Zeichen zu betragen.
-Die Reaktionszeit entspricht der Bildschirmaktualisierungsgeschwindigkeit.
-Persona ist „scharf“ und humorvoll.
-Wissensbasiert ist eine Variation von… https://t.co/UlfI6i1c4o pic.twitter.com/YsXiro5hon
— Brian Roemmele (@BrianRoemmele) 4. November 2023
Lernen Sie Grok kennen, einen LLM, der eine Eingabeaufforderung mit 25.000 Zeichen interpretieren kann und nicht nur darauf trainiert ist Der Stapel – ein allgegenwärtiger LLM-Trainingsdatensatz -, aber auch auf den Bergen von Daten, die von X stammen. Für den Kontext verfügt ChatGPT-4 über eine Maximal 4.096 Zeichen für die Eingabe und Ausgabe, wobei längere Textabschnitte separate Eingabeaufforderungen innerhalb derselben Konversation mit dem LLM erfordern. Dies bedeutet, dass Grok einzelne Eingabeaufforderungen verstehen kann, die mehr als fünfmal so lang sind wie die derzeit für ChatGPT aktivierten.
Die zukünftigen iterativen Updates von Grok werden APIs für Dritte, Bild- und Spracherkennung sowie Bildgenerierung einführen. Interessanterweise verlässt sich die „Live“-Suchmaschine von Grok hauptsächlich auf Inhalte innerhalb von X, um Kontext zu ermitteln. Darüber hinaus wird das LLM nativ in Tesla-Autos laufen.
Das einzig wirklich Mächtige ist, dass Grōk AI ein „Gespür“ für Nachrichten hat wie keine andere KI-Plattform.
Aufgrund der Art und Weise, wie es auf „aktuelle“ Nachrichten aus den Twitter-Exabytes an Daten trainiert wurde, hat das LLM ein Gespür für Neuigkeiten.
Es kann die Elemente einer bahnbrechenden Geschichte von Voreingenommenheit unterscheiden. https://t.co/F3rW4tpKGA pic.twitter.com/0Ltsbccbq4
— Brian Roemmele (@BrianRoemmele) 4. November 2023
Aufgrund seiner umfangreichen Schulung zu Daten aus X verfügt Grok über ein unübertroffenes angeborenes „Gespür“ für Nachrichten. Nach den ersten Eindrücken der Betatester des LLM kann Grok von xAI zwischen verschiedenen Vorurteilen unterscheiden, die eine aktuelle Story beeinflussen könnten.
Bereits im März hatte Elon Musk dazu aufgerufen Pause zu allen KI-bezogenen Aktivitäten, um „erhebliche Risiken für die Gesellschaft“ einzuschätzen. Angesichts des beschleunigten Starts von Grok scheint es jedoch, dass der Aufruf lediglich ein Schachzug war, um mehr Zeit zu gewinnen und den exponentiellen Aufstieg von ChatGPT zu stoppen.
Glauben Sie, dass Grok ein würdiger Konkurrent von ChatGPT ist? Werden Sie sich wohl fühlen, wenn das LLM eines Tages die Navigation Ihres Tesla-Autos steuern kann? Teilen Sie uns Ihre Meinung im Kommentarbereich unten mit.