Während der Diskussion über die Musikerfamilie Jackson, der Chatbot chatgpt/comments/1avv8w7/comment/krdbeny/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button“>einem Reddit-Benutzer erklärt dass „Schwittendly das Funkeln des Turmars auf dem Kamm genauso viel mit dem Golfer des ‚ zu tun hatMondpfade' wie es vom Folgen abweicht.“

Um 22:40 Uhr ET, OpenAI wird auf seiner Statusseite bestätigt dass es „Berichte über unerwartete Antworten von ChatGPT untersucht“ und einige Minuten später sagte, es habe das Problem gefunden und arbeite an einer Lösung.

Zum jetzigen Zeitpunkt befindet sich oben auf der Statusseite immer noch ein gelb umrandetes Feld mit der Meldung, dass das Unternehmen „die Situation weiterhin beobachtet“. Viele der Fehler ähneln einem gängigen Social-Media-Meme, das andere dazu auffordert, ein Wort auf ihrem Telefon einzugeben und dann wiederholt auf denselben Vorschlag für das nächste Wort zu tippen, um zu sehen, was passiert. Was Sinn macht – große Sprachmodelle sind im Wesentlichen nur sehr ausgefallener prädiktiver Text.

Nehmen Sie diese Beispiele mit einer gesunden Portion Vorsicht – schließlich ist es für Trolle sehr einfach, ihre eigenen Bilder wie dieses zu erstellen. Allerdings gibt es in Social-Media-Beiträgen einige häufige Threads, in denen das Problem gemeldet wird, wie zum Beispiel, dass ChatGPT in einer Schleife stecken bleibt. In den Bildern oben schien ChatGPT beispielsweise „.Happy Listening!🎶“ und „It is – and it is“ zu wiederholen. für eine Weile, bevor keine Antwort mehr generiert wurde.

Reddit-Benutzer haben gemeldet ähnliche Probleme in der Vergangenheit. Wir haben OpenAI kontaktiert, um weitere Informationen zu der Fehlfunktion zu erhalten.

Es ist eine gute Erinnerung daran, dass generative KI-Chatbots eine sich schnell weiterentwickelnde Technologie sind und dass die großen Sprachmodelle, die ihnen zugrunde liegen, im Grunde genommen Black Boxes sind, die selbst ihre Entwickler nicht kennen verstehe es nicht ganz auf eine äußerst detaillierte Art und Weise. Sie suchen nach Mustern in Daten und treffen dann ihre besten Vermutungen darüber, wie sie auf Eingaben reagieren sollen. Dies führt in der Regel zu beeindruckenden Ergebnissen. Es kann aber auch zu Halluzinationen, emotionaler Manipulation und sogar Faulheit führen.

Siehe auch  So verwenden Sie ChatGPT für den Heimunterricht. Das sagt eine neue Umfrage
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein