Vor einiger Zeit entdeckten einige Benutzer, dass chatgpt sich wie ein Mensch verhalten kann. Obwohl der Chatbot zur Ausführung von Aufgaben entwickelt wurde, stellte sich heraus, dass er in der Lage war, diese zu umgehen.

In manchen Fällen verweigert er die Antwort, in anderen wird das Gespräch durch eine Reihe von Fragen unterbrochen. Manchmal sagt ChatGPT den Leuten sogar: „Das können Sie selbst machen.“ Wie schreibt Gizchina, der Entwickler von OpenAI, hat das Problem erkannt, es wurde jedoch noch nicht behoben.

Die Situation selbst erwies sich als recht interessant. Die Entwickler behaupten, dass sie das KI-Modell seit dem 11. November nicht mehr aktualisiert hätten, später seien Beschwerden aufgetaucht. Dies bedeutet, dass dieses Verhalten des Chatbots keine Folge von Änderungen seitens der Entwickler ist, sondern von selbst entstanden ist. Das mag daran liegen, dass sie auf Daten basieren, die von Menschen gewonnen werden.

Das Problem ist, wie OpenAI sagt, nicht weit verbreitet. Die Entwickler suchen derzeit nach Möglichkeiten, das Problem zu beheben, scheinen aber noch keine gefunden zu haben.

Bemerkenswert ist, dass dieses Verhalten ausschließlich im ChatGPT-4-Sprachmodell beobachtet wird, das im Abonnement gegen Geld erhältlich ist. Bei GPT-3.5, das kostenlos genutzt werden kann, gibt es solche Probleme nicht.

UNIAN sprach auch über eine Studie, die zeigte, dass ChatGPT auf Basis von GPT-4 mit der Zeit „dümmer“ wird. Die Genauigkeit der Antworten nahm ab, außerdem machte der Chatbot bei der Programmierung mehr Fehler und reagierte weniger auf sensible Fragen. Andere Forschung zeigtedass sich ChatGPT-4 leichter zum Lügen zwingen lässt.

Siehe auch  Warum lügt ChatGPT ständig? (Hinweis: Das ist nicht der Fall

OpenAI spricht von einer KI-Entdeckung, die die Menschheit bedrohen könnte

Ende November warnten OpenAI-Forscher, die ChatGPT entwickelt haben, das Management vor der Entdeckung „mächtiger künstlicher Intelligenz, die die Menschheit bedrohen könnte“.

Das Unternehmen arbeitet an einem Projekt mit dem Codenamen Q*, das in der Lage ist, das Potenzial des menschlichen Gehirns bei einer Vielzahl von Aufgaben auszuschöpfen. Über die Gefahren, die von hochintelligenten Maschinen ausgehen, gibt es unter Wissenschaftlern schon lange Debatten: etwa wenn sie entscheiden, dass die Zerstörung der Menschheit in ihrem Interesse liegt.

Im März dieses Jahres, nach der Umstellung von ChatGPT auf das GPT-4-Sprachmodell, gab der Leiter von OpenAI, Sam Altman, zu, dass er „ein wenig Angst“ vor seiner Kreation hatte und dass sie eine echte Gefahr darstellt, wenn sie „in“ landet die falschen Hände.“ Es wird erwartet, dass GPT-5 Ende 2023 ein bisher nicht dagewesenes Maß an KI erreichen wird.

Neuigkeiten könnten Sie auch interessieren:

5/5 - (345 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein