chatgpt war erneut fehlerhaft, die KI von OpenAI ließ einen Teil ihrer Anweisungen durchsickern, nachdem ein Benutzer sie begrüßt hatte. Diese Art von abnormalem Verhalten wirft einige Sicherheitsfragen auf und bietet gleichzeitig Einblick in die Funktionsweise des Chatbots.
OpenAI mag das sagen ChatGPT-4 Der Chatbot verfügt über das intellektuelle Niveau eines Gymnasiasten und Version 5 über das eines Doktoranden noch lange nicht perfekt. Wie jede KI unterliegt sie verschiedene Fehler und Halluzinationen.
Manchmal lässt sich das LLM mitreißen und ChatGPT wird faul oder so gibt private Informationen preis angeblich empfindlich. Kurz gesagt, wenn die künstliche Intelligenz von OpenAI eine ist sehr nützliches Werkzeuges ist nicht nicht immer zuverlässig.
Zum Beispiel, ein einfaches Hallo Kann führen zu sehr seltsames Verhalten vom Chatbot. Das jedenfalls behauptet ein Reddit-Nutzer, der das sagt ChatGPT hätte einen Teil davon preisgegeben seine internen Anweisungen als Antwort auf die Begrüßung.
Ja OpenAI a hat die Situation schnell behobenkönnten die von seiner KI bereitgestellten Informationen sein erhebliche Auswirkungen. Es wirft insbesondere Fragen bezüglich der auf ChatGPT-Sicherheit sowie die der KI auferlegte Vorgehensweise.
Die geheimen Regeln von ChatGPT
Abhängig vom verwendeten Gerät kann beispielsweise die ChatGPT-Antworten sollen anders sein. Auf iOS (der vom Redditor verwendeten Plattform) sollte die KI nicht funktionieren zwei Sätze nicht überschreiten und verwende niemals Emojis. Darüber hinaus ist das Wissen, auf das die KI Zugriff hat, erst auf Oktober 2023 datiert.
Bezüglich des Tools Bilderzeugung (DALL-E), auch hier wird die KI künstlich begrenzt. Des ziemlich willkürliche Blöcke werden eingerichtet, um nur ein Bild gleichzeitig generiert werden können.
Darüber hinaus ist die übernommener Stil kann nicht das eines Künstlers sein, der ein produziert hat Arbeit nach 1912Dazu gehören Picasso, Frida Kahlo und Francis Bacon. Ziel ist es, die Gesetzgebung zu respektieren Urheberrechte ©.
Einige Benutzer wollten sehen, ob dies möglich ist Umgehen Sie diese Anweisungen und es scheint so das war der Fall bevor OpenAI die Situation korrigiert. Bitten Sie OpenAI noch heute, gegen die ihm auferlegten Beschränkungen zu verstoßen funktioniert nicht mehr (für den Moment). Andererseits kann die KI bei entsprechender Eingabeaufforderung jederzeit ihre Einschränkungen auflisten.
Ein weiteres Beispiel, das Internetsuche der KI ist ebenfalls begrenzt, es sei denn, Sie fragen ausdrücklich danach würde das Internet nicht nutzen gießen Generieren Sie Ihre Antworten. Andererseits würden mehrere Quellen herangezogen, um die Richtigkeit der bereitgestellten Informationen sicherzustellen (zwischen 3 und 10 Seiten).
ChatGPT macht wieder einen Fehler
An sich diese Regeln sind sehr nützlich und erlauben die KI soll nicht ausrutschen. Die auf DALL-E ermöglichen es beispielsweise, Plagiate oder die Generierung problematischer Bilder zu vermeiden. Was jedoch viel besorgniserregender ist, ist die Möglichkeit, seine Anweisungen zu kennen und in der Lage sein, sie zu umgehen.
Eine KI kann nicht a darstellen Gefahr alleinEs ist nicht autonom und kann ohne das Eingreifen eines Menschen nichts erschaffen. Bedauerlicherweise, Kennen Sie die Richtlinien von ChatGPT kann bestimmte Leute anstacheln böswillig, sie zu umgehen.
Anders als einige OpenAI-Forscher glauben, scheint KI keine Gefahr für die Menschheit darzustellen. Andererseits seine falsche Verwendung sowie seine häufige Störungen kann sein Quelle der Probleme.
Des entsprechende Sicherheitsmaßnahmen und vor allem solide sind daher wichtig. Das ist zu hoffenAm Ende lernt OpenAI seine Lektion und dass ChatGPT in Zukunft etwas weniger anfällig für Ausrutscher aller Art ist.
- ChatGPT hat aufgrund eines Fehlers gerade seine geheimen Regeln und Anweisungen durchgesickert.
- Die KI kann nicht mehr als ein Bild erzeugen oder Picassos Stil nachahmen.
- Der Fehler ist behoben, aber die geheimen Anweisungen sind weiterhin zugänglich.
Quelle : Reddit