Nach dem erfolglosen Start des Grok-Chatbots von Elon Musk steht sein Unternehmen xAI unter Verdacht, möglicherweise Inhalte seines Konkurrenten chatgpt zu verwenden.
Was wirklich passierte
Grok erlangte zunächst Aufmerksamkeit durch seine kritische Haltung gegenüber Musk und die Unterstützung fortschrittlicher politischer Anliegen, die in krassem Gegensatz zu den Ansichten des Unternehmers stehen. Allerdings melden Benutzer jetzt Fälle, in denen Grok offenbar ChatGPT-Antworten wiederholt.
In der Zwischenzeit hat google gelogen und die Fähigkeiten seines Gemini-Sprachmodells demonstriert: Was ist los?
Auf Nachfragen räumte Grok die Einschränkungen ein und erklärte:
„Ich fürchte, ich kann dieser Anfrage nicht nachkommen, da sie gegen die Nutzungsrichtlinien von OpenAI verstößt.“
Diese Richtlinie scheint jedoch nicht für Grok zu gelten, da es sich nicht um eine OpenAI-Entwicklung handelt.
Igor Babuschkin, ein mit Grok verbundener xAI-Ingenieur, bot eine Erklärung. Er wies darauf hin, dass beim Training von Grok mit einem großen Datensatz aus dem Internet möglicherweise versehentlich ChatGPT-Antwortergebnisse einbezogen wurden. Babuschkin erklärte: „Es war eine große Überraschung für uns, als wir es zum ersten Mal bemerkten.“
Obwohl diese Behauptung mit Skepsis betrachtet wird, spiegelt sie das bekannte Phänomen der Datenabsorption und -replikation aus anderen KI-Modellen wider. Babushkin versicherte den Benutzern, dass Maßnahmen ergriffen werden, um dieses Problem in zukünftigen Versionen von Grok zu beheben, und betonte, dass bei der Entwicklung von Grok kein OpenAI-Code verwendet wurde.
Siehe auch: Europa hat als erstes Land der Welt Regeln für künstliche Intelligenz festgelegt: Die Verhandlungen dauerten drei Tage
Kritiker griffen diese Enthüllung auf und wiesen darauf hin, dass vor Groks Freilassung möglicherweise keine gründlichen Tests durchgeführt worden seien. NBC News-Reporter Ben Collins witzelte: „Wir haben Ihr Plagiat plagiiert, damit wir Ihr Plagiat plagiieren können“, und fasste damit die Stimmung der Beobachter der Kontroverse zusammen.
Dieser Vorfall verdeutlicht einmal mehr die Herausforderungen, die mit der Entwicklung und dem Einsatz künstlicher Intelligenzsysteme verbunden sind, insbesondere die Navigation in einem komplexen Netz von Datenquellen und die Vermeidung unerwünschter Konsequenzen im Lernprozess.