Grok! Es ist vielleicht nicht so einfach zu verstehen wie chatgpt oder Windows Copilot, aber es ist trotzdem ein Chatbot mit großem Sprachmodell. Grok wurde von xAI entwickelt, einem Ableger der Programmierer, die nach dem Kauf von X (früher bekannt als Twitter) durch Elon Musk geblieben sind. Grok soll direkt mit den GPT-4-Modellen von OpenAI, Googles Bard und einer Reihe anderer öffentlich zugänglicher Chatbots konkurrieren.

Grok wurde im November 2023 eingeführt und ist als Chatbot mit weniger Filtern als andere KIs konzipiert. Es soll „ein bisschen Witz und eine rebellische Ader“ haben.

Es ist nur für X Premium-Benutzer

Jon Martindale / DigitalTrends

Möchten Sie selbst mit Grok herumspielen? Sie können, wenn Sie ein sind X Premium+-Abonnent und auch in den USA wohnen (oder ein VPN verwenden). Allerdings gibt es eine Warteliste für das Ausprobieren des Prototyps, es gibt also keine Garantie, dass Sie reinkommen.

Man könnte zwar damit rechnen, dass es nach Ende der Beta einem breiteren Publikum zugänglich gemacht wird, doch Musk hat angedeutet, dass Grok auf absehbare Zeit eine exklusive Funktion für Premium+ X-Abonnenten bleiben wird.

Es ist ein Chatbot

Nur wenige Wochen nach der Diskussion darüber, wie Als Musk die jüngsten Fortschritte in der KI für gefährlich hielt, brachte er Grok in Beta-Form auf den Markt. Obwohl er behauptete, dass der Kommunikationsstil offener und mit weniger Themenfiltern ausgestattet sei, handelt es sich letztlich um einen Chatbot wie alle anderen.

Siehe auch  Googles Gemini und OpenAIs ChatGPT treten im Cointelegraph-Test gegeneinander an

Das liegt daran, dass es weitgehend auf die gleiche Weise gebaut wurde. Es handelt sich um eine große Sprachmodell-KI, was bedeutet, dass sie mit vielen Trainingsdaten erstellt wurde, einige von X, andere aus dem gesamten Web. Uns wurde gesagt, dass es auf dem Grok-1 Large Language Model (LLM) mit rund 33 Milliarden Parametern läuft. Damit würde es hinter Metas LLaMa und OpenAIs GPT-4 liegen, die 70 Milliarden bzw. 1,76 Billionen Parameter haben. Außerdem wurde es nur ein paar Monate lang trainiert, während die Zusammenstellung anderer Modelle Jahre dauerte.

Das mag der Grund dafür sein, dass Grok anscheinend genauso anfällig (wenn nicht sogar noch anfälliger) für Halluzinationen ist wie andere KIs wie ChatGPT. Wenn man um sachliche Antworten bittet, werden oft Fakten erfunden oder nicht vorhandene Quellen zitiert.

Es verwendet Daten von X

Eines der großen Verkaufsargumente von Grok besteht darin, dass es Live-Daten von -aktuelle Informationen von

Das bedeutet jedoch, dass es Zugriff auf Musks X-Konto hat. Was es bedeutet ist nicht immer einer Meinung mit ihm.

Es soll gegen das Aufwachen wirken, ist es aber nicht

Ein Hauptgrund für Musks Übernahme von X und die Einführung von Grok war sein eigener Versuch, sich gegen das zu wehren, was er als „Wachheit“ bezeichnet. Grok sollte eine KI sein, die gesellschaftliche Höflichkeit zugunsten einer bestimmten Art von Humor meidet und dazu neigt, sich in ihren politischen Vorurteilen auf den rechten Weg zu begeben. Es stellte sich jedoch heraus, dass dies nicht der Fall war. Tatsächlich beschweren sich viele der ursprünglichen Fans von Musk und Grok jetzt darüber, dass die KI es nicht geschafft hat erfasst von „aufgeweckten Programmierern“.

Wurde Grok von aufgeweckten Programmierern gefangen genommen?

Ich mache mir hier große Sorgen. 😮 https://t.co/lrlOJ79Mzz

– Wall Street Silver (@WallStreetSilv) 8. Dezember 2023

In Wirklichkeit basierten Groks Trainingsdaten auf weitgehend denselben Daten wie jede andere KI: die Menschen, die online miteinander interagieren. Daher war es wahrscheinlich, dass Grok allmählich wie die anderen KIs da draußen klingen würde.

Siehe auch  Google Bard vs. ChatGPT: Analyse des Portfolios von Michael Burry

Die meisten Forscher stellten fest, dass Grok im Standardmodus mit reagieren würde eine völlig neutrale Antwort wenn sie nach Themen gefragt werden, die von rechten Kommentatoren als kontrovers angesehen werden, wie etwa Waffenkontrolle, Klimawandel oder entlarvte Verschwörungstheorien. Wenn Sie jedoch vom standardmäßigen „Spaß“-Modus in den regulären Modus wechseln, erhalten Sie fundiertere Antworten.

Es ist eine Anleihe von ChatGPT

Es wurde festgestellt, dass Grok zeitweise so antwortet, als wäre es ChatGPT. Das liegt nicht daran, dass es auf der gleichen Technologie wie ChatGPT basiert, sondern daran, dass es seit der Veröffentlichung von ChatGPT im Web trainiert wurde. Das hat dazu geführt, dass KI-geschriebene Inhalte aufgesaugt wurden, und in einem Fall eine OpenAI-Datenschutzrichtliniedie es dann an seine Benutzer zurückgab, als ob es es selbst geschrieben hätte.

Dies ist ein Problem, das von einer Reihe von Experten angeführt wurde und sich bei allen LLM-KIs verschlimmern kann, wenn es nicht angegangen wird. In einer Welt, in der KIs jeden Tag Berge recycelter Inhalte erzeugen können und dies auch tun, benötigen KI-Entwickler eine Möglichkeit, zwischen KI- und menschlichen Inhalten zu unterscheiden, damit sie ihre zukünftigen Modelle nicht nur auf KI-generierten Inhalten trainieren.

Der Name stammt aus einem Heinlein-Roman

Wenn Sie sich fragen, woher der bizarre Name kommt: „Grok“ ist ein Neologismus aus dem Roman von Robert Heinlein. Fremder in einem fremden Land. Die ursprüngliche Bedeutung war „intuitiv oder durch Empathie verstehen, eine Beziehung zu ihm aufbauen“. Das klingt nach einem hohen Ziel für eine KI, aber es ist wahrscheinlich, dass sie hier auf die Art und Weise eingesetzt wurde, wie sie in der Programmiergemeinschaft in den Jahrzehnten nach Heinleins Werk bekannt wurde: Etwas so vollständig zu verstehen, dass es Teil von Ihnen ist Identität.

Siehe auch  Cohere, ChatGPT aus Kanada, das die Arbeitswelt verändern will

Grok soll uns so gut verstehen Ist uns. Wir glauben, dass es noch nicht so weit ist.

Empfehlungen der Redaktion

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein