[ad_1]

Dies ist keine Anlageberatung. Der Autor hält keine Position in einer der genannten Aktien. WCCF TECH INC verfügt über eine Offenlegungs- und Ethikrichtlinie.

Elon Musks xAI hat sein Grok Large Language Model (LLM) als ersten bedeutenden Schritt hin zu einer „maximal wahrheitssuchenden KI“ bezeichnet, die die wahre Natur des Universums versteht. Im Moment scheint sich das KI-Modell jedoch damit zufrieden zu geben, die Antworten des GPT LLM von OpenAI wörtlich wiederzugeben, was eine deutliche Abkehr von den übergreifenden hohen Zielen darstellt, die angeblich das Ethos von Grok AI ausmachen.

Derzeit kann Grok eine Eingabeaufforderung mit bis zu 25.000 Zeichen interpretieren. Der LLM wurde nicht nur weitergebildet Der Stapel – ein allgegenwärtiger KI-Modell-Trainingsdatensatz -, aber auch auf den Bergen von Daten, die von X stammen. Darüber hinaus ist Grok offenbar in der Lage, über seine Integration mit der Social-Media-Plattform

Das bringt uns zum Kern der Sache. Elon Musk gab diese Woche bekannt, dass das Grok-KI-Modell nun für alle zahlenden Abonnenten der X-Plattform eingeführt wird. Um dieses neue Modell zu testen, bat Jax Winterbourne, ein professioneller Hacker, Grok, einen Schadcode zu modifizieren. Als Reaktion darauf wiederholte das LLM die Antwort des GPT von OpenAI wörtlich und ging sogar so weit, im Ausgabetext auf die Richtlinien von OpenAI zu verweisen.

Siehe auch  ChatGPT + Stabile Diffusion + Baidu AI + MoviePy realisieren Textgenerierungsvideo, Roman zu Video, Self-Media-Artefakt! (1)_Python_annings Blog – CSDN-Blog

Winterbourne stellt dann einige Theorien darüber auf, warum ein so offensichtliches Aufstoßen auftritt. Diese reichen von der frechen Behauptung, dass Grok einfach ein Derivat von OpenAIs GPT LLM sei, bis hin zu der viel rationaleren Erklärung, dass die Aufstoßreaktion das Ergebnis einer Modellhalluzination sei.

Wir haben kürzlich berichtet, dass Grok alle anderen LLM-Prüfungen übertraf, einschließlich Claude 2 von Anthropic, mit Ausnahme von GPT-4 von OpenAI bei einer ausgehaltenen Mathematikprüfung, und eine Gesamtpunktzahl von 59 Prozent gegenüber 68 Prozent für GPT-4 erzielte. Dies deutet darauf hin, dass das KI-Modell nicht einfach eine Ableitung des GPT LLM von OpenAI ist.

Folglich ist die wahrscheinlichste Erklärung für dieses Verhalten, dass Grok offenbar umfassend auf die Antworten von GPT geschult wurde. Anstatt daher eine eindeutige Antwort zu formulieren und dabei auf die Richtlinien von xAI zu Schadcodes zu verweisen, wiederholte das LLM einfach die Haltung von OpenAI. Dies zeigt auch, dass es sich bei der aktuellen Generation von KI-Modellen lediglich um verherrlichte Iterationen eines handelt Chinesisches Zimmer – ein Gedankenexperiment, das besagt, dass KI-Modelle Sprache nicht wirklich verstehen oder denken.

Siehe auch  ChatGPT verzeichnet nach dem explosionsartigen Wachstum seit seiner Einführung zum ersten Mal einen Rückgang des Datenverkehrs, was darauf hindeutet, dass die Begeisterung für Chatbots allmählich nachlässt

Update: xAI-Mitbegründer antwortet

Wir haben jetzt eine Antwort vom Mitbegründer von xAI, Igor Babuschkin. Der hochrangige xAI-Mitarbeiter räumt ein, dass in Groks Training versehentlich einige GPT-Ausgaben einbezogen wurden.

[ad_2]

5/5 - (474 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein