Wenn es um die chatgpt-Krise geht, muss man als Erstes daran denken, Menschen zu ersetzen. Das ist eigentlich nicht schrecklich. Die wirklich weitreichenden Auswirkungen sind eine weitere Krise.
Ein Karrierewechsel ist nicht beängstigend
Mit dem Fortschritt der menschlichen Kultur eliminieren Wissenschaft und Technologie bestimmte Arten von Arbeit und schaffen gleichzeitig neue Möglichkeiten. Jemand, der diese Möglichkeiten nutzt, kann vermeiden, wie ein Meistersurfer von großen Wellen überflutet zu werden. Mit dem Aufkommen des iphone zum Beispiel verstehen viele Menschen mit scharfen Sinnen, dass Menschen in Zukunft unabhängig von Ort und Zeit im Internet surfen können. Viele Keime der Online-Branche wurden damals gelegt, und ich glaube, dass es so sein sollte eine gute Ernte heute. Bei ChatGPT ist es dasselbe. Solange Sie sich auf die kreative Seite konzentrieren, haben Sie die Möglichkeit, in Ihrer Karriere einen großen Schritt nach vorne zu machen. Natürlich beinhaltet dieser Prozess Beobachtung, Kreation und das Herausspringen aus der Komfortzone. Ob Sie die mentale Vorbereitung und die Kraft haben, alleine durchzukommen, ist ein Selbsttest.
Weigerung, über Abhängigkeit nachzudenken
Wir verwenden die ChatGPT 4-Version schon seit einiger Zeit, hauptsächlich um die sich wiederholende Arbeit an einigen Artikeln zu ersetzen, wie z. B. den Vergleich mehrerer Artikel, wichtige Zusammenfassungen und Bestellvorschläge, was die Zeit, die in der Vergangenheit für das Lesen und Nachschlagen erforderlich war, erheblich spart . Man hat festgestellt, dass Menschen, wenn sie ein Werkzeug finden, das ihnen Komfort bietet, anfangen, sich darauf zu verlassen. Das Gleiche gilt für ChatGPT. Wenn es ein Problem mit dem OpenAI-Server gibt, ist die erste Reaktion der Leute, auf Reparaturen zu warten. Nachdem sie einen halben Tag lang keine Antwort erhalten haben, entscheiden sie sich immer noch dafür, weiter zu warten, anstatt in den alten Lese- und Denkmodus zu wechseln . Diese Situation ist auch ganz natürlich. Wenn Sie beispielsweise eine hervorragende elektrische Kaffeebohnenmühle haben, wird Ihr Körper natürlich keine Handmühle mehr verwenden. Das Gleiche gilt für ChatGPT, aber was Ihr Körper ablehnt, ist nicht reine körperliche Kraft, sondern eine Weigerung zu denken.
Bedingungsloses Vertrauen ohne Zweifel
Abhängigkeit ist jedoch nicht die gefährlichste. Bedingungsloses Vertrauen ist die größte Krise für den Menschen in der Zukunft. Wir haben immer Zweifel an den Botschaften anderer Menschen und beurteilen dann anhand unserer eigenen Erfahrung, ob die andere Partei glaubwürdig ist. Wir werden jedoch weder daran zweifeln, ob unsere Zählmaschine falsche Zahlen addiert, noch werden wir überprüfen, ob SUM ALL in Excel falsche Zahlen addiert. Dies ist unsere Erkenntnis von klein bis groß. Das Gefährlichste an ChatGPT ist, dass die Leute es wie einen Computer behandeln, alles wird vom Computer berechnet, es gibt keine Position oder Emotionen, also glauben wir, dass es mehr Antworten als Menschen hat, was eine sehr gefährliche Sache ist. Verschiedene Länder und Regionen haben unterschiedliche Gesetze für bestimmte Antworten. ChatGPT kann auf diese Gesetze unterschiedliche Antworten geben. Tatsächlich ist es nicht schwer zu verstehen, dass die Antworten von Menschen manipuliert werden können. Das andere ist die Dateneingabe von ChatGPT. Aus dem oben von den Unwire-Kollegen verwendeten Beispiel geht hervor, dass Redakteure bestimmte Artikel eingeben, sodass Benutzer über ein Framework verfügen, um ihre Datenquellen einzuschränken und zu überprüfen, was relativ sicher ist. Wenn normale Benutzer es jedoch verwenden, können wir nicht wissen, welche spezifischen Materialien von ChatGPT zitiert werden. Wenn Microsoft in Zukunft ChatGPT kombiniert, um Daten direkt im Internet in Echtzeit zu suchen und zu sammeln, bedeutet dies, dass solange dort Daten vorhanden sind ist Macht, gleichzeitig Berichte und Materialien zu diesem Thema im Internet zu erstellen, wirkt sich direkt auf die Antwort von ChatGPT aus, oder durch groß angelegte Schulungen zur Korrektur von „Benutzer“-Antworten kann es auch seinen Zweck erreichen. Benutzer dieser „falschen“ Prozesse werden es jedoch nicht wissen, sie wissen nur, dass dies die Antwort eines Computers ist, genau wie der Computer 1 + 1 = 2, es gibt keinen Grund, es nicht zu glauben.
Die verborgene Sorge von ChatGPT: Unmoralisch
Die Unmoral von ChatGPT besteht nicht nur darin, ein paar verletzende Worte zu sagen. Ich glaube, dass Unwire-Leser, die „Gambling Man“ gesehen haben, wissen, dass „Computeranalyse, 65 % sind 7, 35 % sind JACK, wenn es 7 ist, ist es JACK“. . klassische Konversation. Tatsächlich handelt es sich hierbei um eine Gentleman-Vereinbarung zwischen KI und Menschen. Die KI wird Ihnen sagen, wie glaubwürdig die Antwort ist, und Sie müssen sie selbst analysieren. Das Problem mit ChatGPT besteht darin, dass dieser Referenzindikator seit seiner Einführung nicht bereitgestellt wurde. Dies kann daran liegen, dass OpenAI davon ausgeht, dass jede Antwort mit größter Glaubwürdigkeit überprüft wurde. Es gibt keine Möglichkeit, die „Glaubwürdigkeit“ programmgesteuert zu berechnen, und es besteht auch keine Notwendigkeit dafür. Das Ergebnis ist jedoch, dass OpenAI versuchen wird, einige falsche Antworten zu „rationalisieren“. Benutzer lachen natürlich über einige bekannte Antworten, aber Benutzer, die sie nicht verstehen, lassen sich möglicherweise überzeugen. Diese Situation ist in Version 3 besonders ernst. In der Vergangenheit hieß es oft, man könne die Welt erobern, indem man das Internet/die sozialen Medien manipuliert, und in Zukunft könne man die Welt erobern, indem man ChatGPT manipuliert. Wen kennen Sie nicht, den Sie in Zukunft wählen werden? Versuchen Sie, ChatGPT zu fragen.
==
**TLDR: Wenn Sie über ein gutes Ressourceneingabe-Framework verfügen, ist es ein gutes Tool, ChatGPT zur Analyse zu verwenden. Wenn Sie sich jedoch darauf verlassen, dass ChatGPT das Problem selbst löst, behandeln Sie ihn bitte wie einen Menschen, das ist nicht unbedingt der Fall Richtig, seine Antwort ist möglicherweise auch manipuliert.