Seit seiner Einführung im November letzten Jahres hat sich chatgpt zu einem beliebten Tool für eine Vielzahl von Aufgaben entwickelt. Vom Schreiben von Essays und Gedichten über die Generierung von Geschäftsideen bis hin zum Lösen von Prüfungsfragen nutzen Benutzer diesen KI-Chatbot aktiv und teilen ihre Erfahrungen in sozialen Medien. Kürzlich hat eine Person einen Screenshot geteilt, der einen auffälligen Tippfehler von ChatGPT zeigt. Es war zu erwarten, dass es schnell Anklang fand, Diskussionen auslöste und humorvolle Reaktionen hervorrief.

Screenshot, der den Tippfehler von ChatGPT hervorhebt. (Reddit/@hairball201)

{{^userSubscribed}} {{/userSubscribed}}

{{^userSubscribed}} {{/userSubscribed}}

Beim Teilen eines Screenshots in der „r/ChatGPT“-Community von Reddit schrieb eine Person: „Hat schon einmal jemand gesehen, wie GPT-4 einen Tippfehler gemacht hat?“ Der online geteilte Screenshot enthält eine Aufforderung zu „Bedenken bei der Aufzeichnung in Zoohandlungen“, was auf den ersten Blick in Ordnung schien. Allerdings liegt ein Tippfehler vor. Der Benutzer bemerkte es und zeigte sich neugierig auf seine Bedeutung. Sie fragten ChatGPT: „Ich habe das Wort „infrishing“ noch nie gesehen, was bedeutet das?“ Der KI-Chatbot stellte dann klar, dass der richtige Begriff „rechtsverletzend“ sein sollte, und lieferte sogar seine Definition.

Schauen Sie sich den Reddit-Beitrag hier an:

{{^userSubscribed}} {{/userSubscribed}}

{{^userSubscribed}} {{/userSubscribed}}

Der Screenshot hat seit seiner Veröffentlichung vor einem Tag über 9.100 positive Stimmen und eine Flut von Antworten von Reddit-Benutzern erhalten. „Erwischt! Bei ChatGPT geht es nur um Menschen“, heißt es in einem Kommentar zu dem Beitrag. Eine Person schrieb: „Seine Trainingsdaten müssen voller Tippfehler sein. Ich frage mich, ob es von dort kommt.“ Darauf antwortete das Originalplakat: „In seinen eigenen Worten: ‚Als von OpenAI entwickelte KI mache ich keine Tippfehler auf die gleiche Weise wie ein Mensch, der auf einer Tastatur tippt.‘ Allerdings erzeuge ich aufgrund meiner Schulung manchmal falsche oder unerwartete Ausgaben. Wenn beispielsweise ein Wort oder eine Phrase in den Daten, mit denen ich trainiert wurde, selten oder uneinheitlich verwendet wird, kann es sein, dass ich sie falsch verwende. Alternativ können Wörter während des Generierungsprozesses manchmal verwechselt oder kombiniert werden. In diesem Fall scheint „infrishing“ eine Verwechslung von „infrishing“ und möglicherweise einem anderen Wort oder einer anderen Phrase gewesen zu sein. Ich entschuldige mich für etwaige Verwirrung.“

Siehe auch  Sophos entdeckt gefälschte ChatGPT-App, die Benutzer um Tausende von Dollar betrügt | Fan News

{{^userSubscribed}} {{/userSubscribed}}

{{^userSubscribed}} {{/userSubscribed}}

„An diesem Punkt wurde ihnen klar, dass ChatGPT nur eine Schreibfarm in einem fernen Land war“, kommentierte ein anderer. Ein Dritter teilte mit: „Ja, und manchmal entstehen dadurch ganz neue Wörter.“ „Vielleicht ist es die Situation beim Turing-Test, aber umgekehrt. Die API wird regelmäßig mit einem echten Menschen ausgetauscht, um zu sehen, ob es Ihnen auffällt“, schrieb ein Vierter. Ein fünfter bemerkte: „Moment mal? Ist Chatgpt nur ein Typ in einem Keller?“

Einige meldeten sich sogar zu Wort und berichteten von ihren eigenen Erfahrungen mit Tippfehlern, die von ChatGPT verursacht wurden. „Ja. Gestern wurde der Dammbruch als „verdammter Dammbruch“ bezeichnet. Neulich wurde das Wort „aguish“ verwendet und vor einiger Zeit wurde es in Phasen und Fazed verwechselt. Nur weil es maschinell hergestellt wird, heißt das nicht, dass es perfekt ist“, schrieb ein Reddit-Benutzer. Ein anderer fügte hinzu: „Es führt zu Tippfehlern in anderen Sprachen. GPT 3.5 macht viele Tippfehler, beispielsweise auf Schwedisch. GPT4 ist viel besser und macht selten Tippfehler auf Schwedisch, aber es kommt vor. Ich hatte noch nie eines auf Englisch gesehen, aber es kann natürlich passieren.“

{{^userSubscribed}} {{/userSubscribed}}

{{^userSubscribed}} {{/userSubscribed}}

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein