chatgpt gilt als Pionier der Chatbots mit künstlicher Intelligenz (KI) und ist sicherlich einer der beliebtesten überhaupt. Das bedeutet jedoch nicht, dass es nicht fehleranfällig ist. Während es in der Vergangenheit Berichte darüber gab, dass der KI-Chatbot bei bestimmten Themen halluzinierte, standen mehrere Benutzer vor einem neuen Problem: Der KI-Chatbot gab auf Eingabeaufforderungen unsinnige Antworten aus.

ChatGPT-Probleme

Am 20. Februar berichteten mehrere Benutzer über Probleme mit ChatGPT. Berichten zufolge wechselte der KI-Chatbot selbstständig die Sprache, blieb in Schleifen stecken, korrigierte sich gelegentlich selbst und gab sogar unsinnige Antworten aus. Auf dem ChatGPT-Subreddit ein Benutzer schrieb„Ich habe ChatGPT um Ratschläge zum Javascript-Code gebeten (wir haben ein wenig hin und her geredet, da die vorgeschlagenen Lösungen nicht funktionierten), als plötzlich nur noch Unsinn geschrieben wurde.“

Der Benutzer führte weiter aus, dass ChatGPT den ersten Satz korrekt formuliert habe, aber danach alles schief ging. Obwohl der von ihm generierte Code als in Ordnung empfunden wurde, konnte er keine Sätze aneinanderreihen und beinhaltete oft Wörter aus anderen Sprachen, darunter sogar Latein!

Lesen Sie auch: Auf der Suche nach einem Smartphone? So überprüfen Sie den mobilen Finder

Im Subreddit ein anderer Benutzer in Frage gestellt wenn ChatGPT es verlieren würde. „Ich habe mit ChatGPT darüber gesprochen, welches Bill Evans Trio es auf Vinyl empfehlen würde, und es hat es verloren. Als wäre die Temperatur in den an die API übergebenen Parametern zu hoch gewesen. Das hatte ich noch nie zuvor.“

Kurz darauf erkannte OpenAI die Probleme an und auf der ChatGPT-Statusseite stand: „Wir untersuchen Berichte über unerwartete Antworten von ChatGPT.“ Das Problem wurde bald erkannt und OpenAI wendete die Korrekturen an und überwachte anschließend die Situation weiter.

Siehe auch  So vermeiden Sie Shitcoin-Betrug mit Chatgpt

Andere Probleme

Dies ist kein einziges Problem, das den OpenAI-Chatbot in den letzten Monaten geplagt hat. Im Januar wurde berichtet, dass ChatGPT mehrere private Gespräche in einem unabhängigen Chat durchsickern ließ. Noch besorgniserregender ist, dass die durchgesickerte Konversation nicht nur den Namen der App enthielt, an der der Benutzer Fehler behoben hat, sondern auch die Anmeldeinformationen, einschließlich Benutzername und Passwort.

Lesen Sie heute auch andere Top-Storys:

Forderung nach Deepfake-Regulierung! Experten für künstliche Intelligenz und Führungskräfte der Branche, darunter „KI-Pate“ Yoshua Bengio, haben einen offenen Brief unterzeichnet, in dem sie mehr Regulierung im Zusammenhang mit der Erstellung von Deepfakes fordern. Einige interessante Details in diesem Artikel. Schauen Sie es sich hier an.

Sora weckt Ängste! Seit OpenAI seine KI-Plattform für die Text-zu-Video-Generierung eingeführt hat, befürchten führende Content-Ersteller, dass sie die neuesten Profis sind, die kurz davor stehen, durch Algorithmen ersetzt zu werden. Alle Details finden Sie hier.

Microsoft baut einen selbst entwickelten Prozessor! Microsoft ist Kunde von Intels Geschäft mit maßgeschneiderten Chips geworden. Das Unternehmen wird die 18A-Fertigungstechnologie von Intel nutzen, um einen kommenden Chip herzustellen, den der Softwarehersteller selbst entwickelt hat. Lesen Sie hier alles darüber.

Eine Sache noch! Wir sind jetzt auf WhatsApp-Kanälen! Folgen Sie uns dort, um keine Updates aus der Welt der Technik zu verpassen. ‎Um dem HT Tech-Kanal auf WhatsApp zu folgen, klicken Sie auf Hier Jetzt mitmachen!

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein