Es gibt viele Tools im Internet, die erkennen können, ob Artikel von KI geschrieben wurden, aber manchmal kommt es immer noch zu Identifizierungsfehlern. Ich habe mehrere Artikel getestet, die eindeutig von Menschen geschrieben wurden, aber gleichzeitig als solche Tools identifiziert wurden nicht Der Identifizierungsstandard ist öffentlich und kann daher nicht vollständig überzeugt werden.
Wenn Sie chatgpt verwenden, gibt es laut OpenAI eine Methode zum Hinzufügen von Wasserzeichen zu KI-generierten Inhalten. Der Vertreter sagte, wenn Sie wissen möchten, ob ChatGPT für zukünftige Inhalte verwendet werden soll. Sie müssen es nur mit dieser Funktion überprüfen, um es sofort zu identifizieren, und die Genauigkeit ist ziemlich hoch.
Bildquelle:Abonnieren
In Zukunft werden die Textinhalte, die Sie mit ChatGPT generieren, wahrscheinlich leicht erkannt.
Vor ein paar Tagen hat OpenAI einen alten Artikel mit neuen Inhalten aktualisiert. In diesem Artikel geht es hauptsächlich um „OpenAI führt neue Tools ein, um Forschern dabei zu helfen, die Authentizität von Inhalten zu untersuchen.“
Im neuesten Inhalt erwähnte OpenAI, dass sie eine Methode zum Hinzufügen von Wasserzeichen zu Text entwickelt haben, die sehr genau ist und besonders effektiv bei lokalen Manipulationen (z. B. dem Umschreiben von Absätzen) ist. Aber wie erreicht man ein Wasserzeichen? OpenAI hat keine besonderen Anweisungen.
Zusätzlich zu Wasserzeichen erforscht OpenAI auch eine andere „Textmetadaten“-Methode. Im Gegensatz zu Wasserzeichen werden Metadaten verschlüsselt und signiert, sodass es keine Fehlalarme gibt. Wenn die Wasserzeichenmethode für eine große Menge an Textinhalten verwendet wird, kommt es insgesamt zu vielen Fehlalarmen.
Unabhängig davon, welche Methode verwendet wird, dient sie dazu, zu erkennen, ob der Inhalt mit ChatGPT generiert wurde. Dies ist zwar großartig für Zuschauer und kann schnell entdeckt werden, für Ersteller ist es jedoch nicht so gut.
Bildquelle:OpenAI
Bereits 30 % der ChatGPT-Benutzer gaben an, dass sie dieses Tool möglicherweise nicht so häufig verwenden würden, wenn dieses Erkennungssystem eingeführt würde.
Das ist eigentlich ganz normal. Ich denke, es sollte jetzt keinen Nutzer mehr geben, der KI nutzen möchte, um Inhalte zu generieren und von Eigentümern und Lesern entdeckt zu werden.
Content-Ersteller oder andere Mitarbeiter werden ChatGPT zweifellos nutzen, um die Effizienz ihrer eigenen Textgenerierung zu verbessern. Allerdings sind die meisten Menschen derzeit nicht in der Lage, KI-generierte Inhalte zu akzeptieren, da sie beispielsweise darauf hoffen, dass die andere Partei diese generiert Alle Inhalte selbst möchten die Leser auch Inhalte sehen, die von echten Menschen geschrieben wurden.
Die offizielle Einführung eines solchen Tools wird wirklich für große Gegenreaktionen sorgen, wenn die öffentlichen Inhalte von Dala La von ChatGPT generiert werden.
Dies könnte einer der Gründe sein, warum OpenAI dieses Tool für ausländische Medien immer noch nicht eingeführt hat, obwohl das Wasserzeichen entwickelt wurde und die Genauigkeit recht hoch ist TechCrunch In dem Bericht heißt es:
Sie verfolgen einen „maßvollen Ansatz“ aufgrund der „komplexen Komplexität und ihrer möglichen Auswirkungen auf das breitere Ökosystem über OpenAI hinaus“.
Im Gegenteil, ich denke, dass einige KI-Erkennungstools im Internet relativ gut sind. Obwohl die Genauigkeit nicht 100 % beträgt, kann sie dennoch als Referenz verwendet werden. Sie hat keinen Einfluss auf die Ersteller von Inhalten und ermöglicht den Zuschauern eine grobe Antwort .
Quelle:ChatGPT