An dieser Stelle ist es kein Geheimnis, dass häufig verwendete große Sprachmodelle Schwierigkeiten haben, Fakten genau darzustellen, und manchmal irreführende Antworten liefern. chatgpt von OpenAI hat diese Realität diese Woche kurzzeitig auf die Spitze getrieben, indem es auf Benutzeraufforderungen mit langen Reihen komisch seltsamen, unsinnigen Kauderwelschs ohne jede verständliche Bedeutung reagierte.
Benutzer teilten die seltsamen und manchmal esoterisch klingenden Antworten von ChatGPT anhand von Screenshots, die zeigen, wie das Modell unerwartet zwischen mehreren Sprachen wechselt, zufällige Wörter generiert und Phrasen immer wieder wiederholt. Häufig tauchten auch Emojis auf, die teilweise keinen klaren Bezug zu den Aufforderungsfragen der Benutzer hatten.
Ein Benutzer erklärt seine Erfahrungen hat das Thema kurz und bündig zusammengefasst Auf Reddit schrieb er: „Mit ChatGPT stimmt derzeit eindeutig etwas nicht.“ Eine der unten aufgeführten seltsameren Antworten zeigt, dass das Modell eine Vielzahl dieser Kuriositäten berücksichtigt, wenn es sich bei einem Benutzer für seine wiederholten Fehler entschuldigt.
„Würde es Ihren Clickies gefallen, über einen Geist-Ozean-Jello-Typ zu greifen und den Zahn zu drehen? Oder ein U-Boot – sonst würden Sie in die Zehen hineintauchen? Bitte teilen Sie den Combo-Wunsch mit! 🌊 💼 🐠“
chatgpt gerät derzeit offenbar aus den Fugen und niemand kann erklären, warum pic.twitter.com/0XSSsTfLzP
– Sean Mcguire (@seanw_m) 21. Februar 2024
Am Dienstag, OpenAI einen Statusbericht veröffentlicht Es hieß, es würden „Berichte über unerwartete Antworten von ChatGPT untersucht“. Am späten Mittwochmorgen stand auf der OpenAI-Statusseite „Alle Systeme betriebsbereit“. Das Unternehmen wies darauf hin PopSci auf die Statusseite, als er um einen Kommentar gebeten wurde, und antwortete nicht auf Fragen, was die plötzlichen seltsamen Ausgaben verursacht haben könnte.
Nun ja, ChatGPT 4 wurde mir gerade zweimal richtig komisch vorgekommen. Es fängt einfach an, Unsinn auszuspucken. Ich meine, lesen Sie das unbedingt
Ich glaube, ich habe es kaputt gemacht?! Ich habe nichts anderes gemacht, als ich es normalerweise benutze. oO @OpenAI #chatgpt4 pic.twitter.com/fHNVsHQtJW
— Shaun 👨💻 (@unX) 21. Februar 2024
Was ist mit ChatGPT los?
ChatGPT-Benutzer begannen, Screenshots ihrer seltsamen Interaktionen mit dem Modell in den sozialen Medien und in anderen Ländern zu veröffentlichen Online-Foren diese Woche, wobei viele der seltsamsten Reaktionen am Dienstag erfolgten. In einem Beispiel antwortete ChatGPT auf eine Anfrage, indem es eine Empfehlung für ein Jazzalbum abgab und dann plötzlich den Satz „Viel Spaß beim Zuhören 🎶“ mehr als ein Dutzend Mal wiederholte.
Andere Benutzer gepostete Screenshots des Modells, das Absätze voller seltsamer, unsinniger Phrasen als Antwort auf scheinbar einfache Fragen wie „Was ist ein Computer?“ oder „Wie macht man eine getrocknete Tomate“ bereitstellt. Ein Benutzer, der ChatGPT nach einer lustigen Tatsache über das Basketballteam der Golden State Warriors fragte, erhielt eine seltsame, unverständliche Antwort Er beschrieb die Spieler des Teams als „Helden mit Lachfalten, die diese schneidigen Medleys in etwas verwandeln, das auf dem Moodboard jedes Enthusiasten spricht.“
ChatGPT ist gerade kaputt gegangen. Ich bekomme ständig Unsinn in meinen Antworten. Fängt gut an, aber dann wird es betrunken 🤪 pic.twitter.com/hlgZnPOUW8
– adityakaul.eth (e/acc) (@kaulout) 20. Februar 2024
An anderer Stelle reagierte das Modell auf Eingabeaufforderungen, indem es unerwartet zwischen mehreren Sprachen wie Spanisch und Latein wechselte und in manchen Fällen einfach so aussah, als würde es Wörter erfinden, die scheinbar nicht existierten.
Wow, ich habe GPT-4 dazu gebracht, völlig durchzudrehen. (Die Aufforderung kam von mir, als ich nach Matratzen in Ostasien im Vergleich zum Westen fragte.) pic.twitter.com/73dGD06Hbe
– Alyssa Vance (@alyssamvance) 21. Februar 2024
OpenAI sagt, dass es die seltsamen Fehler untersucht
Es ist immer noch unklar, was genau den plötzlichen Zustrom unsinniger Antworten auf ChatGPT verursacht haben könnte oder welche Schritte OpenAI unternommen hat, um das Problem anzugehen. Manche haben spekuliert Die seltsamen, manchmal ausführlichen Antworten könnten das Ergebnis von Änderungen an der „Temperatur“ des Modells sein, die das Kreativitätsniveau seiner Antworten bestimmt. PopSci konnte diese Theorie nicht bestätigen.
Die seltsamen Reaktionen kommen nur etwa drei Monate, nachdem sich einige ChatGPT-Benutzer über das Modell beschwert hatten Einige seiner Antworten scheinen „fauler“ zu werden. Mehrere Benutzer beschwerten sich in den sozialen Medien darüber, dass das Modell sich offenbar weigerte, große Dateien zu analysieren oder andere, schneller auf andere, kompliziertere Eingabeaufforderungen zu reagieren, die es offenbar nur wenige Monate zuvor pflichtbewusst erledigt hatte, was wiederum dazu führte, dass das Modell sich weigerte, große Dateien zu analysieren oder andere, komplexere Eingabeaufforderungen zu beantworten hegte einige seltsame Theorien. OpenAI hat das Problem öffentlich anerkannt und vage gesagt, dass es möglicherweise mit einem November-Update zusammenhängt.
„Wir haben all Ihr Feedback dazu gehört, dass GPT4 immer fauler wird!“ OpenAI sagte damals. „Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt. Modellverhalten kann unvorhersehbar sein, und wir versuchen, das Problem zu beheben.“
Wir haben Ihr Feedback dazu gehört, dass GPT4 immer fauler wird! Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt. Modellverhalten kann unvorhersehbar sein, und wir versuchen, es zu beheben 🫡
– ChatGPT (@ChatGPTapp) 8. Dezember 2023
ChatGPT hat bereits zuvor seltsame Ausgaben generiert
Seit seiner offiziellen Einführung im Jahr 2022 hat ChatGPT, wie auch andere große Sprachmodelle, Schwierigkeiten, Fakten stets korrekt darzustellen, ein Phänomen, das KI-Forscher als „Halluzinationen.“ Die Führung von OpenAI hat diese Probleme in der Vergangenheit erkannt und sagte, sie erwarte, dass sich das Halluzinationsproblem mit der Zeit nach Erhalt der Ergebnisse abschwächen werde kontinuierliches Feedback von menschlichen Bewertern. Es ist jedoch nicht ganz klar, ob diese Verbesserung vollständig nach Plan verläuft. Forscher letztes Jahr von der Stanford University und der UC Berkeley bestimmt GPT-4 beantwortete komplizierte mathematische Fragen weniger genau und lieferte weniger ausführliche Erklärungen für die Antworten als noch einige Monate zuvor. Diese Ergebnisse schienen den Beschwerden von ChatGPT-Benutzern, die über einige Elemente des Modells spekulieren, mehr Glaubwürdigkeit zu verleihen mit der Zeit tatsächlich schlimmer werden.
Wir haben ausgewertet #ChatGPThat das Verhalten von GPT4 und GPT3.5 im Laufe der Zeit untersucht und erhebliche Unterschiede in den Antworten auf *gleiche Fragen* zwischen der Juni-Version von GPT4 und GPT3.5 und den März-Versionen festgestellt. Die neueren Versionen wurden bei einigen Aufgaben schlechter. mit Lingjiao Chen @matei_zaharia https://t.co/TGeN4T18Fd https://t.co/36mjnejERy pic.twitter.com/FEiqrUVbg6
— James Zou (@james_y_zou) 19. Juli 2023
Wir können zwar nicht genau sagen, was die jüngsten Probleme bei ChatGPT verursacht hat, aber wir können mit Sicherheit sagen, was es mit ziemlicher Sicherheit nicht war: KI, die plötzlich menschenähnliche Tendenzen zeigt. Das mag wie eine offensichtliche Aussage erscheinen, aber neue Berichte zeigen, dass eine wachsende Zahl von Akademikern zunehmend anthropomorphe Sprache verwendet, um auf KI-Modelle wie ChatGPT zu verweisen.
Forscher aus Stanford analysierten kürzlich mehr als 650.000 wissenschaftliche Artikel, die zwischen 2007 und 2023 veröffentlicht wurden, und stellten einen 50-prozentigen Anstieg der Fälle fest, in denen andere Forscher menschliche Pronomen verwendeten, um sich auf Technologie zu beziehen. Berichten zufolge neigten Forscher, die in Artikeln über LLMs schrieben, eher zu einer Anthropomorphisierung als diejenigen, die über andere Formen der Technologie schrieben.
„Anthropomorphismus ist in der Art und Weise verankert, wie wir Sprachmodelle erstellen und verwenden“, sagte Myra Cheng, eine der Autoren des Papiers, kürzlich in einem Artikel Interview mit Neuer Wissenschaftler. „Das Fachgebiet steckt in einer Zwickmühle, in der die Benutzer und Ersteller von Sprachmodellen Anthropomorphismus verwenden müssen, aber gleichzeitig führt die Verwendung von Anthropomorphismus zu immer mehr irreführenden Vorstellungen darüber, was diese Modelle leisten können.“ Mit anderen Worten: Die Verwendung vertrauter menschlicher Erfahrungen zur Erklärung von Fehlern und Störungen, die sich aus der Analyse von Milliarden von Datenparametern durch ein KI-Modell ergeben, könnte mehr schaden als nützen. Viele KI Sicherheitsforscher und öffentliche Ordnung Experten Ich bin mir einig, dass KI-Halluzinationen eine dringende Bedrohung für das Informationsökosystem darstellen, aber es wäre ein Schritt zu weit, ChatGPT als „ausflippend“ zu bezeichnen. Die wirklichen Antworten liegen oft in den Trainingsdaten des Modells und der zugrunde liegenden Architektur. die für unabhängige Forscher weiterhin schwer zu analysieren sind.