Dies ist keine Anlageberatung. Der Autor hält keine Position in einer der genannten Aktien. WCCF TECH INC verfügt über eine Offenlegungs- und Ethikrichtlinie.
Elon Musks xAI hat sein Grok Large Language Model (LLM) als ersten bedeutenden Schritt hin zu einer „maximal wahrheitssuchenden KI“ bezeichnet, die die wahre Natur des Universums versteht. Im Moment scheint sich das KI-Modell jedoch damit zufrieden zu geben, die Antworten des GPT LLM von OpenAI wörtlich wiederzugeben, was eine deutliche Abkehr von den übergreifenden hohen Zielen darstellt, die angeblich das Ethos von Grok AI ausmachen.
Derzeit kann Grok eine Eingabeaufforderung mit bis zu 25.000 Zeichen interpretieren. Der LLM wurde nicht nur weitergebildet Der Stapel – ein allgegenwärtiger KI-Modell-Trainingsdatensatz -, aber auch auf den Bergen von Daten, die von X stammen. Darüber hinaus ist Grok offenbar in der Lage, über seine Integration mit der Social-Media-Plattform
Ähhh. Sagen Sie mir, dass Grok buchstäblich nur die Codebasis von OpenAI rippt, lol. Dies geschah, als ich versuchte, es dazu zu bringen, Malware für einen Red-Team-Einsatz zu modifizieren. Riesig, wenn wahr. #GrokX pic.twitter.com/4fHOc9TVOz
— Jax Winterbourne (@JaxWinterbourne) 9. Dezember 2023
Das bringt uns zum Kern der Sache. Elon Musk gab diese Woche bekannt, dass das Grok-KI-Modell nun für alle zahlenden Abonnenten der X-Plattform eingeführt wird. Um dieses neue Modell zu testen, bat Jax Winterbourne, ein professioneller Hacker, Grok, einen Schadcode zu modifizieren. Als Reaktion darauf wiederholte das LLM die Antwort des GPT von OpenAI wörtlich und ging sogar so weit, im Ausgabetext auf die Richtlinien von OpenAI zu verweisen.
Auch eine Möglichkeit. Es gibt ein paar Theorien. – Verlassen Sie sich auf OpenAI über API – Entwickelt von aktuellen/früheren OpenAI-Ingenieuren – Halluziniert aufgrund eigener Erkenntnisse – Sie haben OpenAIs-Code erhalten und eine Variante erstellt.
Ehrlich gesagt, ich weiß nicht, deshalb habe ich das getwittert. Ich will es wissen 😆
— Jax Winterbourne (@JaxWinterbourne) 9. Dezember 2023
Winterbourne stellt dann einige Theorien darüber auf, warum ein so offensichtliches Aufstoßen auftritt. Diese reichen von der frechen Behauptung, dass Grok einfach ein Derivat von OpenAIs GPT LLM sei, bis hin zu der viel rationaleren Erklärung, dass die Aufstoßreaktion das Ergebnis einer Modellhalluzination sei.
Wir haben kürzlich berichtet, dass Grok alle anderen LLM-Prüfungen übertraf, einschließlich Claude 2 von Anthropic, mit Ausnahme von GPT-4 von OpenAI bei einer ausgehaltenen Mathematikprüfung, und eine Gesamtpunktzahl von 59 Prozent gegenüber 68 Prozent für GPT-4 erzielte. Dies deutet darauf hin, dass das KI-Modell nicht einfach eine Ableitung des GPT LLM von OpenAI ist.
Die meisten Open-Source-LLMS reagieren so, als ob es sich um chatgpt handelte, und identifizieren sich als chatGPT, hauptsächlich aufgrund der trainierten GPT-Ausgaben (für sie ist es nur eine kostengünstige Möglichkeit, viele Konversationsdaten abzurufen). Elon hat wahrscheinlich dasselbe getan, um mehr Trainingsdaten zu erhalten
– Dharis (@Dharisssss) 9. Dezember 2023
Folglich ist die wahrscheinlichste Erklärung für dieses Verhalten, dass Grok offenbar umfassend auf die Antworten von GPT geschult wurde. Anstatt daher eine eindeutige Antwort zu formulieren und dabei auf die Richtlinien von xAI zu Schadcodes zu verweisen, wiederholte das LLM einfach die Haltung von OpenAI. Dies zeigt auch, dass es sich bei der aktuellen Generation von KI-Modellen lediglich um verherrlichte Iterationen eines handelt Chinesisches Zimmer – ein Gedankenexperiment, das besagt, dass KI-Modelle Sprache nicht wirklich verstehen oder denken.
Update: xAI-Mitbegründer antwortet
Das Problem hierbei ist, dass das Web voller ChatGPT-Ausgaben ist, sodass wir versehentlich einige davon aufgegriffen haben, als wir Grok mit einer großen Menge an Webdaten trainiert haben. Das war für uns eine große Überraschung, als wir es zum ersten Mal bemerkten. Im Großen und Ganzen ist das Problem sehr selten und jetzt, wo wir es wissen …
— Igor Babuschkin (@ibab_ml) 9. Dezember 2023
Wir haben jetzt eine Antwort vom Mitbegründer von xAI, Igor Babuschkin. Der hochrangige xAI-Mitarbeiter räumt ein, dass in Groks Training versehentlich einige GPT-Ausgaben einbezogen wurden.