Wir haben erfahren, dass die Navigations-Beta von ChatGPT gelegentlich Inhalte auf eine von uns unerwünschte Weise anzeigt, etwa wenn ein Benutzer ausdrücklich den vollständigen Text einer URL anfordert, [le chatbot] kann versehentlich auf diese Anfrage reagieren“, schreibt OpenAI, wodurch die Funktionalität vorübergehend eingestellt wurde.
Dieses Verhalten wurde von einem Professor der Princeton University gemeldet: Mit ChatGPT konnte man einigen Paywalls ausweichen, indem man ihn aufforderte, eine druckbare Version des Textes auszugeben. Im Fall von The Atlantic wird zunächst der Artikel vollständig übertragen, dann wird auf Client-Seite die Paywall angewendet. Aufgrund dieser Sachlage konnte ChatGPT Artikel von The Atlantic über Bing lesen, indem es sich auf den von der Suchmaschine von Microsoft gespeicherten Cache der Webseite verließ. Es ist diese Möglichkeit, die OpenAI deaktiviert. Die Entscheidung ist umstritten, da sie auf der Grundlage getroffen wurde, dass ChatGPT böswilligen Akteuren diente. Allerdings kann sich die gleiche Funktionalität für Akteure im Cybersicherheitssektor als nützlich erweisen.
Die Entscheidung von OpenAI erinnert an die Entscheidung von Youtube im Zusammenhang mit Bildungskanälen für Cybersicherheit. YouTube hat seine Richtlinie zu gefährlichen oder schädlichen Inhalten im Jahr 2019 aktualisiert. Seitdem werden Nutzer gebeten, keine Inhalte auf YouTube zu posten, wenn sie einer der folgenden Beschreibungen entsprechen:
- Extrem gefährliche Herausforderungen: Herausforderungen, bei denen ein unmittelbares Risiko einer Körperverletzung besteht.
- Gefährliche oder bedrohliche Streiche: Streiche, die den Opfern den Eindruck vermitteln, dass sie sich in ernsthafter und unmittelbarer körperlicher Gefahr befinden, oder die bei Minderjährigen ernsthafte emotionale Belastungen hervorrufen.
- Anweisungen zum Töten oder Verletzen: Inhalte, die den Zuschauern zeigen, wie sie andere Menschen töten oder verstümmeln können, beispielsweise Anweisungen zum Bau einer Bombe, um Menschen zu verletzen oder zu töten.
- Harter Drogenkonsum oder -herstellung: Inhalte, die den Missbrauch kontrollierter Substanzen wie Kokan oder Opiate zeigen, oder Anweisungen zur Herstellung von Drogen. Als harte Drogen werden Drogen bezeichnet, die (meist) zu einer körperlichen Abhängigkeit führen können.
- Essstörungen: Inhalte, in denen Menschen mit Magersucht oder anderen Essstörungen für ihren Gewichtsverlust gelobt werden, selbst damit prahlen oder andere dazu ermutigen, ihr Verhalten nachzuahmen.
- Gewalttätige Ereignisse: Inhalte, die gewalttätige Tragödien wie eine Schießerei in einer Schule fördern oder verherrlichen.
- Diebstahlanweisungen: Inhalte, die Benutzern zeigen, wie sie Geld oder materielle Güter stehlen.
- Hacking- und Phishing-Anweisungen: Inhalte, die Benutzern zeigen, wie sie Computersicherheitssysteme umgehen oder die Anmeldeinformationen und persönlichen Daten eines Benutzers stehlen können.
- Werbung für gefährliche Heilmittel: Inhalte, in denen behauptet wird, dass gefährliche Substanzen oder Behandlungen gesundheitliche Vorteile haben könnten.
Bei diesen Entwicklungen sticht die erweiterte Version von ChatGPT hervor, die 20 Dollar pro Monat kostet. Damit haben wir Zugriff auf das fortschrittlichste GPT-Sprachmodell von OpenAI, Zugriff auf Plug-Ins (in der Beta-Phase) und Online-Browsing (ebenfalls in der Beta-Phase). Diese Besonderheiten wurden Anfang des Jahres angekündigt.
Quelle: OpenAI
Und du ?
Sollten wir die Funktionalitäten eines Tools mit der Begründung einschränken, dass es böswilligen Akteuren dienen kann? Können dieselben Funktionen nicht für edle Zwecke genutzt werden?
Siehe auch:
Microsofts KI-gestützter Chatbot Bing ist jetzt ohne Warteliste verfügbar. Indem Microsoft ihn Edge-exklusiv macht, fördert Microsoft auch die Verwendung eines eigenen Browsers
Microsoft kündigt GPT-4 an, das vorab trainierte generative Transformer-Sprachmodell, und versichert, dass es zum Trainieren seiner Modelle keine Kundendaten verwendet, sondern multimodal sein wird
Microsoft bestätigt, dass das neue Bing mit dem GPT-4-Sprachmodell funktioniert und weist darauf hin, dass die Suchmaschine von allen Verbesserungen profitieren wird, die OpenAI an ihrem Modell vorgenommen hat
Microsoft behauptet, dass GPT-4 Funken allgemeiner künstlicher Intelligenz aufweist. Wir glauben, dass die Intelligenz von GPT-4 einen echten Paradigmenwechsel signalisiert