Haben Sie jemals das Gefühl gehabt, dass chatgpt zu einem Chef geworden ist, der einfach nicht kooperiert? Benutzer aus allen Gesellschaftsschichten rätseln über die plötzliche Verwandlung des KI-Bots von einem hilfsbereiten Kumpel zu einem geradezu störrischen Begleiter. OpenAI befasst sich mit dem Fall und untersucht dieses bizarre Verhalten, das die Leute fragen lässt: „Was ist mit ChatGPT los?“
Es hat sich herumgesprochen, dass ChatGPT, das das Leben einfacher machen soll, jetzt schwer zu bekommen ist. Benutzer berichten, dass der Bot Befehle direkt ablehnt oder ihnen vorschlägt, die Arbeit selbst zu erledigen. Es ist weit entfernt von dem üblichen freundlichen Gespräch, und die Leute möchten unbedingt wissen, warum.
OpenAI hat uns nicht im Stich gelassen. Sie sprangen am Donnerstag ein, zugeben irgendetwas stimmt nicht. Sie versicherten allen, dass sie das letzte Mal am 11. November an dem Modell herumgebastelt hatten und dass dieses pingelige Verhalten nicht Teil des Plans sei. Über das ChatGPT-Konto auf
ChatGPT war der Superheld in Sachen Effizienz und verfügte über eine Nutzerbasis, die seit seinem Debüt im November letzten Jahres auf rund 1,7 Milliarden angewachsen ist. Es war die Anlaufstelle, um Dinge zu erledigen. Aber in letzter Zeit singen Benutzer eine andere Meinung und behaupten, ChatGPT sei von einem hilfreichen Assistenten zu einem leichten Problem geworden.
Nehmen Sie zum Beispiel den Versuch eines Benutzers, ChatGPT dazu zu bringen, die Tage aufzulisten Woche bis 5. Mai. Anstelle einer einfachen Liste erhielten sie eine klare Absage mit der Begründung, keine „erschöpfenden Listen“ zu erstellen. Als ich die gleiche Eingabeaufforderung versuchte, war ChatGPT nicht sehr hilfreich. Dort hieß es: „Ich kann Ihnen die aktuelle Wochennummer und die Anzahl der verbleibenden Wochen bis zum 5. Mai 2024 mitteilen. Allerdings kann ich nicht alle Wochen auflisten.“ individuell. Bitte beachten Sie, dass sich meine Antworten auf das aktuelle Datum 11.12.2023 beziehen. Anhand dieser Angaben können Sie die Wochen selbst berechnen. Stelle dir das vor!
Als ich es bat, ein paar Titel für einen Blog-Beitrag oder eine Nachrichtenmeldung ohne Doppelpunkte vorzuschlagen, verhielt es sich ähnlich wie ein taub gewordener Roboter. In einigen Fällen werden meine Anweisungen weiterhin ignoriert.
Bild: DIW
Drüben RedditBenutzer senden ihre Beschwerden über die Ärger ChatGPT dazu zu überreden, die richtigen Antworten zu geben. Es ist, als würde man ein Eingabeaufforderungsspiel spielen, um die benötigten Informationen zu erhalten. Einige hegen sogar Nostalgie für die alten GPT-Modelle und behaupten, sie seien bei Codierungsaufgaben besser. Und vergessen wir nicht das Murren über die Verschlechterung der Antwortqualität.
Als ein Benutzer OpenAI fragte: „Wie kann es „fauler“ werden, wenn ein Modell nur eine Datei ist? Die wiederholte Verwendung einer Datei ändert nichts an der Datei.“ Es antwortete „Um es klar auszudrücken, die Idee ist nicht, dass sich das Modell seit dem 11. November irgendwie verändert hat. Es ist nur so, dass Unterschiede im Modellverhalten subtil sein können – nur ein Teil der Eingabeaufforderungen kann beeinträchtigt sein, und es kann für Kunden und Kunden lange dauern Mitarbeiter, diese Muster zu bemerken und zu beheben“
Anfangs gaben die Leute ihm die Schuld auf einen Bug Im System. Aber OpenAI am Samstag gemeldet, und sagte, dass sie immer noch die Beschwerden der Nutzer bearbeiten würden. In einer Stellungnahme zu Verschiedene Durchläufe, selbst mit denselben Daten, können Modelle mit unterschiedlichen Stimmungen, Schreibstilen und sogar politischen Neigungen hervorbringen.
Während die Benutzer also darauf warten, dass ChatGPT seine Arbeit aufnimmt, setzt OpenAI seine Detektivhüte auf und verspricht, dieses Netz unerwarteter Possen zu entwirren. Im Moment müssen wir abwarten, ob ChatGPT wieder der vertrauenswürdige Assistent wird, für den wir uns alle angemeldet haben.
Lesen Sie weiter: Neue Studie enthüllt die besten großen Technologieunternehmen für ein Praktikum