An dieser Stelle ist es kein Geheimnis, dass häufig verwendete große Sprachmodelle Schwierigkeiten haben, Fakten genau darzustellen, und manchmal irreführende Antworten liefern. chatgpt von OpenAI hat diese Realität diese Woche kurzzeitig auf die Spitze getrieben, indem es auf Benutzeraufforderungen mit langen Reihen komisch seltsamen, unsinnigen Kauderwelschs ohne jede verständliche Bedeutung reagierte.

Benutzer teilten die seltsamen und manchmal esoterisch klingenden Antworten von ChatGPT anhand von Screenshots, die zeigen, wie das Modell unerwartet zwischen mehreren Sprachen wechselt, zufällige Wörter generiert und Phrasen immer wieder wiederholt. Häufig tauchten auch Emojis auf, die teilweise keinen klaren Bezug zu den Aufforderungsfragen der Benutzer hatten.

Ein Benutzer erklärt seine Erfahrungen hat das Thema kurz und bündig zusammengefasst Auf Reddit schrieb er: „Mit ChatGPT stimmt derzeit eindeutig etwas nicht.“ Eine der unten aufgeführten seltsameren Antworten zeigt, dass das Modell eine Vielzahl dieser Kuriositäten berücksichtigt, wenn es sich bei einem Benutzer für seine wiederholten Fehler entschuldigt.

„Würde es Ihren Clickies gefallen, über einen Geist-Ozean-Jello-Typ zu greifen und den Zahn zu drehen? Oder ein U-Boot – sonst würden Sie in die Zehen hineintauchen? Bitte teilen Sie den Combo-Wunsch mit! 🌊 💼 🐠“

Am Dienstag, OpenAI einen Statusbericht veröffentlicht Es hieß, es würden „Berichte über unerwartete Antworten von ChatGPT untersucht“. Am späten Mittwochmorgen stand auf der OpenAI-Statusseite „Alle Systeme betriebsbereit“. Das Unternehmen wies darauf hin PopSci auf die Statusseite, als er um einen Kommentar gebeten wurde, und antwortete nicht auf Fragen, was die plötzlichen seltsamen Ausgaben verursacht haben könnte.

Was ist mit ChatGPT los?

ChatGPT-Benutzer begannen, Screenshots ihrer seltsamen Interaktionen mit dem Modell in den sozialen Medien und in anderen Ländern zu veröffentlichen Online-Foren diese Woche, wobei viele der seltsamsten Reaktionen am Dienstag erfolgten. In einem Beispiel antwortete ChatGPT auf eine Anfrage, indem es eine Empfehlung für ein Jazzalbum abgab und dann plötzlich den Satz „Viel Spaß beim Zuhören 🎶“ mehr als ein Dutzend Mal wiederholte.

Siehe auch  Beste ChatGPT-Mac-Apps für mehr Produktivität

Andere Benutzer gepostete Screenshots des Modells, das Absätze voller seltsamer, unsinniger Phrasen als Antwort auf scheinbar einfache Fragen wie „Was ist ein Computer?“ oder „Wie macht man eine getrocknete Tomate“ bereitstellt. Ein Benutzer, der ChatGPT nach einer lustigen Tatsache über das Basketballteam der Golden State Warriors fragte, erhielt eine seltsame, unverständliche Antwort Er beschrieb die Spieler des Teams als „Helden mit Lachfalten, die diese schneidigen Medleys in etwas verwandeln, das auf dem Moodboard jedes Enthusiasten spricht.“

An anderer Stelle reagierte das Modell auf Eingabeaufforderungen, indem es unerwartet zwischen mehreren Sprachen wie Spanisch und Latein wechselte und in manchen Fällen einfach so aussah, als würde es Wörter erfinden, die scheinbar nicht existierten.

OpenAI sagt, dass es die seltsamen Fehler untersucht

Es ist immer noch unklar, was genau den plötzlichen Zustrom unsinniger Antworten auf ChatGPT verursacht haben könnte oder welche Schritte OpenAI unternommen hat, um das Problem anzugehen. Manche haben spekuliert Die seltsamen, manchmal ausführlichen Antworten könnten das Ergebnis von Änderungen an der „Temperatur“ des Modells sein, die das Kreativitätsniveau seiner Antworten bestimmt. PopSci konnte diese Theorie nicht bestätigen.

Die seltsamen Reaktionen kommen nur etwa drei Monate, nachdem sich einige ChatGPT-Benutzer über das Modell beschwert hatten Einige seiner Antworten scheinen „fauler“ zu werden. Mehrere Benutzer beschwerten sich in den sozialen Medien darüber, dass das Modell sich offenbar weigerte, große Dateien zu analysieren oder andere, schneller auf andere, kompliziertere Eingabeaufforderungen zu reagieren, die es offenbar nur wenige Monate zuvor pflichtbewusst erledigt hatte, was wiederum dazu führte, dass das Modell sich weigerte, große Dateien zu analysieren oder andere, komplexere Eingabeaufforderungen zu beantworten hegte einige seltsame Theorien. OpenAI hat das Problem öffentlich anerkannt und vage gesagt, dass es möglicherweise mit einem November-Update zusammenhängt.

Siehe auch  Apple entwickelt ein revolutionäres Analogon von ChatGPT, das alle Daten auf dem iPhone speichert

„Wir haben all Ihr Feedback dazu gehört, dass GPT4 immer fauler wird!“ OpenAI sagte damals. „Wir haben das Modell seit dem 11. November nicht mehr aktualisiert, und das ist sicherlich nicht beabsichtigt. Modellverhalten kann unvorhersehbar sein, und wir versuchen, das Problem zu beheben.“

ChatGPT hat bereits zuvor seltsame Ausgaben generiert

Seit seiner offiziellen Einführung im Jahr 2022 hat ChatGPT, wie auch andere große Sprachmodelle, Schwierigkeiten, Fakten stets korrekt darzustellen, ein Phänomen, das KI-Forscher als „Halluzinationen.“ Die Führung von OpenAI hat diese Probleme in der Vergangenheit erkannt und sagte, sie erwarte, dass sich das Halluzinationsproblem mit der Zeit nach Erhalt der Ergebnisse abschwächen werde kontinuierliches Feedback von menschlichen Bewertern. Es ist jedoch nicht ganz klar, ob diese Verbesserung vollständig nach Plan verläuft. Forscher letztes Jahr von der Stanford University und der UC Berkeley bestimmt GPT-4 beantwortete komplizierte mathematische Fragen weniger genau und lieferte weniger ausführliche Erklärungen für die Antworten als noch einige Monate zuvor. Diese Ergebnisse schienen den Beschwerden von ChatGPT-Benutzern, die über einige Elemente des Modells spekulieren, mehr Glaubwürdigkeit zu verleihen mit der Zeit tatsächlich schlimmer werden.

Wir können zwar nicht genau sagen, was die jüngsten Probleme bei ChatGPT verursacht hat, aber wir können mit Sicherheit sagen, was es mit ziemlicher Sicherheit nicht war: KI, die plötzlich menschenähnliche Tendenzen zeigt. Das mag wie eine offensichtliche Aussage erscheinen, aber neue Berichte zeigen, dass eine wachsende Zahl von Akademikern zunehmend anthropomorphe Sprache verwendet, um auf KI-Modelle wie ChatGPT zu verweisen.

Siehe auch  Sora ist der neue Text-zu-Video-Generator des ChatGPT-Herstellers OpenAI. Folgendes wissen wir über das neue Tool

Forscher aus Stanford analysierten kürzlich mehr als 650.000 wissenschaftliche Artikel, die zwischen 2007 und 2023 veröffentlicht wurden, und stellten einen 50-prozentigen Anstieg der Fälle fest, in denen andere Forscher menschliche Pronomen verwendeten, um sich auf Technologie zu beziehen. Berichten zufolge neigten Forscher, die in Artikeln über LLMs schrieben, eher zu einer Anthropomorphisierung als diejenigen, die über andere Formen der Technologie schrieben.

„Anthropomorphismus ist in der Art und Weise verankert, wie wir Sprachmodelle erstellen und verwenden“, sagte Myra Cheng, eine der Autoren des Papiers, kürzlich in einem Artikel Interview mit Neuer Wissenschaftler. „Das Fachgebiet steckt in einer Zwickmühle, in der die Benutzer und Ersteller von Sprachmodellen Anthropomorphismus verwenden müssen, aber gleichzeitig führt die Verwendung von Anthropomorphismus zu immer mehr irreführenden Vorstellungen darüber, was diese Modelle leisten können.“ Mit anderen Worten: Die Verwendung vertrauter menschlicher Erfahrungen zur Erklärung von Fehlern und Störungen, die sich aus der Analyse von Milliarden von Datenparametern durch ein KI-Modell ergeben, könnte mehr schaden als nützen. Viele KI Sicherheitsforscher und öffentliche Ordnung Experten Ich bin mir einig, dass KI-Halluzinationen eine dringende Bedrohung für das Informationsökosystem darstellen, aber es wäre ein Schritt zu weit, ChatGPT als „ausflippend“ zu bezeichnen. Die wirklichen Antworten liegen oft in den Trainingsdaten des Modells und der zugrunde liegenden Architektur. die für unabhängige Forscher weiterhin schwer zu analysieren sind.

5/5 - (177 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein