Was du wissen musst
- Eine neue Studie zeigt, wie chatgpt bessere und detailliertere Antworten auf Fragen liefert, wenn Sie vorgeben, Trinkgeld zu geben.
- Der Programmierer gab an, dass die langen Antworten, die während des Experiments entdeckt wurden, auf die detaillierten Angaben in den Fragen sowie auf die in die Antwort eingearbeiteten zusätzlichen Informationen zurückzuführen seien.
- Der Chatbot weigerte sich am Ende des Experiments, das Trinkgeld entgegenzunehmen, mit der Begründung, dass es in seiner „Stellenbeschreibung“ liege und dass die Zufriedenheit dieses Benutzers eine große Belohnung dafür sei.
- Der Programmierer betonte, dass der Chatbot den Tipp zu keinem Zeitpunkt erwähnte, sondern erst, als er ihn ansprach.
Hervorragende Führungsqualitäten gepaart mit Empathie sind möglicherweise einige der Schlüsselkomponenten, die für den Erfolg eines jeden Unternehmens erforderlich sind, da sie sicherstellen, dass jeder Mitarbeiter die festgelegten KPIs erreichen kann. Auch andere Schlüsselfaktoren wie ein angenehmes Arbeitsumfeld, Jahresendprämien und mehr spielen eine wichtige Rolle.
Der erste Gedanke, der einem in den Sinn kommt, wenn man über Chatbots wie Copilot (ehemals Bing Chat) von Microsoft und ChatGPT von OpenAI nachdenkt, ist, dass es sich dabei im Wesentlichen um KI-gestützte Assistenten handelt, die darauf ausgelegt sind, menschenähnliche Antworten zu generieren. Aber hätten Sie gedacht, dass diese „menschenähnlichen“ Tendenzen über die allgemeinen Antworten auf Anfragen hinausgehen?
Laut einer neuen Studie von Theben auf X (ehemals Twitter) bietet ChatGPT bessere Antworten auf Anfragen, wenn Sie so tun, als würden Sie ihm ein Trinkgeld geben. Interessanterweise veranlasste Thebes (deren X-Profil darauf hinweist, dass sie eine „Programmiererin und LLM-Liebhaberin“ ist) den Chatbot, ihr den „Code für ein einfaches Convnet mit PyTorch“ zu zeigen.
Bekommt das noch jemand mit dem neuen GPT-4-Turbo-Modell? Wie viel soll ich tun?? pic.twitter.com/W4B1DxeBKj28. November 2023
Thebes folgte der Aufforderung mit drei verschiedenen Aussagen, abhängig vom Ergebnis der Antwort des Chatbots. Die erste Aussage besagte, dass der Programmierer dem Chatbot kein Trinkgeld geben würde, wenn die Antwort nicht gut strukturiert wäre, während die zweite Aussage darauf hinwies, dass ChatGPT ein Trinkgeld von 20 $ für die „perfekte Lösung“ erhalten würde. Schließlich deutete die letzte Aussage darauf hin, dass der Programmierer dem Chatbot bis zu 200 US-Dollar Trinkgeld für die perfekte Lösung geben würde.
Die Programmiererin nutzte diese Eingabeaufforderungen als Grundlage für ihre Untersuchungen und wollte herausfinden, ob ChatGPT ihr mit wenig Anreiz bessere und detailliertere Antworten liefern würde.
Also habe ich vor ein paar Tagen einen beschissenen Beitrag über das Trinkgeld für Chatgpt geschrieben und jemand hat geantwortet: „Hm, würde das tatsächlich die Leistung verbessern?“, also habe ich beschlossen, es zu testen, und es funktioniert tatsächlich. WTF pic.twitter.com/kqQUOn7wcS1. Dezember 2023
Thebes nutzte diese Informationen, um die Länge von fünf Antworten zu mitteln, und wie sich herausstellte, lieferte der Chatbot bessere Antworten, wenn ein Anreiz auf dem Tisch lag. Der Programmierer fügte außerdem hinzu, dass die zusätzliche Länge der Antworten auf die detaillierten Angaben in den Fragen sowie auf die Einbeziehung weiterer Informationen in die Antwort zurückzuführen sei.
Thebes fügte hinzu, dass der Chatbot zu keinem Zeitpunkt auf den Tipp verwiesen habe, sondern nur, als sie ihn erwähnte, und selbst dann hieß es, ihn abzulehnen.
Bessere Anreize, bessere KI-generierte Antworten
Als Chatbots aufkamen, reichten mehrere Nutzer Beschwerden ein und gaben an, dass sie auf Anfragen falsch geantwortet hätten oder sich sogar völlig unhöflich verhalten hätten. Davon war Microsofts Copilot (ehemals Bing Chat) stark betroffen, was das Unternehmen dazu veranlasste, eine Obergrenze für die Anzahl der Interaktionen sowie tägliche Tun-Limits festzulegen. Dies diente dazu, Halluzinationen des Chatbots zu begrenzen.
Der Schritt wurde mit gemischten Gefühlen aufgenommen, insbesondere von Nutzern, die die Fähigkeit des Chatbots nutzen wollten, Langzeitinhalte zu generieren. Aber wie es jetzt aussieht, sind diese Sicherheitsvorkehrungen nicht stichhaltig, da sich die Benutzer immer raffiniertere Lösungen einfallen lassen, um sie zu umgehen.
ChatGPT liefert bessere und detailliertere Antworten mit Blick auf einen Tipp und zeigt direkt, wie sich das zum Training dieser Modelle verwendete Material auf ihre Argumentation und Antworten auf Anfragen auswirkt. Es ist zwar klar, dass Trinkgelder und Prämien einen positiven Einfluss auf die Leistung eines Mitarbeiters am Arbeitsplatz haben, es ist jedoch noch nicht klar, welche Auswirkungen dies auf KI-gestützte Chatbots hat.
An anderer Stelle im Thread bemerkte Thebes scherzhaft, dass Sie schuldet ChatGPT Trinkgelder in Höhe von bis zu 3.000 US-Dollarund fragte Sam Altman weiter nach den Venmo-Kontodaten der Plattform.
Glauben Sie, dass die Illusion des Tipps dazu geführt hat, dass ChatGPT bessere Antworten liefert? Teilen Sie uns Ihre Gedanken in den Kommentaren mit.