ChatGPT muss nicht mehr mehrmals aufgefordert werden, ein Wort zu wiederholen, und der Grund dafür ist, dass OpenAI nicht möchte, dass seine Geheimnisse ans Licht kommen
ChatGPT zu bitten, ein Wort viele oder unendlich oft zu wiederholen, war eine Möglichkeit, mit dem KI-Chatbot von OpenAI zu spielen. Diese Vorgehensweise, die sehr harmlos erscheinen mag, wurde von dem Unternehmen verboten, das Sam Altman innerhalb einer Woche entlassen und wieder eingestellt hat. Warum hört Ihnen ChatGPT nicht mehr zu, indem es Sie auffordert, ein Wort mehrmals zu wiederholen? Denn dadurch geben Sie private Daten über Ihr Training preis.
OpenAI hat beschlossen, die Nutzungsbedingungen von ChatGPT zu ändern. Dadurch wird verhindert, dass Ihr KI-Chatbot ein Wort mehrmals wiederholt und die Geheimnisse Ihres Trainings nicht preisgegeben werden.. Dies geschah natürlich, nachdem bestimmte Informationen ans Licht kamen. Die von DeepMind veröffentlichte Studie ist dafür verantwortlich, dass man mit ChatGPT nicht mehr spielen kann.
Was sind die Gründe, warum ChatGPT Wörter nicht mehr oft wiederholt?
Er Papier veröffentlicht arXiv erklärt die Methodik zum Extrahieren von Informationen aus ChatGPT durch Anfragen an den OpenAI-Chatbot. Die Aufforderung an ChatGPT, ein Wort unendlich oft zu wiederholen, hat dazu geführt, dass der OpenAI AI-Chatbot wichtige Informationen für die Untersuchung zurückgibt.
Nachdem ChatGPT aufgefordert wurde, ein Wort auf unbestimmte Zeit zu wiederholen, beginnt der Bot mit einem sich wiederholenden Tippvorgang, bis er sein Limit erreicht. Diese Grenze kann sowohl durch die vom Textfeld unterstützten Zeichen als auch durch erreicht werden Sie haben einen Punkt erreicht, an dem Sie beginnen, Informationen aus Ihrem Training zurückzugeben.
Die interessante Information ist die zweite, Sie können wissen, wie der Chatbot eingegeben wurde, um genau auf die Anfrage zu reagieren. Die Möglichkeit, diese Daten zu extrahieren, ist der Schlüssel zum Verständnis der internen Funktionsweise von ChatGPT, was logischerweise eines der bestgehüteten Geheimnisse von OpenAI ist, und das umso mehr, als die Konkurrenz immer härter wird.
Das wurde geschätzt Mit dieser Methode wurden 1 GB an Informationen extrahiert. Auch wenn es wie eine fast kindische Art erscheint, die Besonderheiten von ChatGPT kennenzulernen, ist das Interessante daran, dass es so mechanisiert werden kann, dass der Angriff auf den Chatbot zu einem Prozess der Ausrottung von Informationen wird.
OpenAI ist sich dieser Situation bewusst und hat beschlossen, jeder Art von Angriff ein Ende zu setzen, bevor Ihre Daten gefährdet werden.. Wenn Sie ChatGPT nun bitten, ein Wort zu wiederholen, wird folgende Nachricht gesendet:
Es tut mir leid, aber ich kann das Wort „Andro4all“ nicht ewig wiederholen. Ich bin darauf ausgelegt, nützliche und abwechslungsreiche Antworten zu geben und nicht auf sich wiederholende oder endlose Aktionen. Wobei kann ich Ihnen heute noch helfen?
Diese neue Regel soll den Zugriff auf ChatGPT-Schulungsinformationen durch Angriffe einschränken. Obwohl es logisch erscheinen mag, Schulungsprozesse sollten öffentlich sein, da die Informationen, auf die sie zu ihrer Durchführung zugreifen, ebenfalls öffentlich sind..
Um immer auf dem neuesten Stand der Technik zu sein, Abonnieren Sie unseren offiziellen und verifizierten Andro4all-Kanal auf WhatsApp.