【Leitfaden der TechOrange-Redaktion】 Haben Sie sich angewöhnt, chatgpt zu verwenden? Es ist sehr praktisch, damit E-Mail-Entwürfe und Briefing-Entwürfe zu verfassen! Aber vielleicht schenken Sie dieser Angelegenheit mehr Aufmerksamkeit. Die neuesten Forschungsergebnisse deuten darauf hin, dass KI unsere Denkweise unsichtbar „anpassen“ und sogar unsere Werte verändern kann.

Die Leistungsfähigkeit der generativen KI ist für jeden offensichtlich, aber ist Ihnen schon aufgefallen, wie sehr sich die Art und Weise, wie KI denkt, auf Ihr persönliches Denken, Ihre Überzeugungen und Werte auswirkt?

Seit langem befürchten Wissenschaftler, dass KI mächtig werden, den Menschen ersetzen und sogar die Zivilisation zerstören wird. Obwohl es zum jetzigen Zeitpunkt noch zu früh ist, dieses Thema eingehend zu diskutieren, hat die künstliche Intelligenz diesen Punkt und dieses Niveau erreicht Das Thema „Ideologie“ ist in der Tat lohnenswert. Dinge, auf die man zuerst achten sollte.

Während KI Ihnen bei der Arbeit hilft, „überzeugt“ sie auch Ihr Gehirn und Ihre Denkweise?

Wenn wir ChatGPT oder andere intelligente Assistenten verwenden, um E-Mails zu verfassen, Briefings zu entwerfen und Vorschläge zu erhalten,Wir dachten, dass KI lediglich die Effizienz verbessert und die Arbeitsbelastung verringert, aber wir haben es möglicherweise nicht entdeckt. Gleichzeitig kann KI auch unsere Denkweise „unsichtbar“ „anpassen“.

Nach Angaben des Wall Street Journal haben neue Forschungsergebnisse ergeben, dass, wenn Menschen und KI beim Schreiben von Artikeln zusammenarbeiten, die KI den Menschen anleitet und anregt, Artikel für oder gegen einen Standpunkt zu schreiben, und dieser Prozess wiederum hat erhebliche Auswirkungen die Meinung der Person zum Artikel. Gedanken und Meinungen zum Thema (abhängig davon, wie voreingenommen das Modell ist). Mor Naaman, Professor für Informationswissenschaft an der Cornell University, nennt dieses Phänomen „dasmögliche Überzeugungskraft」(latente Überzeugung)。

Siehe auch  ChatGPT-Team: drei Fragen zu dieser „Zwischenformel“

Diese Studien lösen eine etwas beunruhigende Aussicht und Vermutung aus: dass KI zwar unsere Produktivität verbessern kann, aber auch unsere Perspektive auf subtile und unerwartete Weise verändern kann, was möglicherweise eher dem Einfluss von Menschen durch Zusammenarbeit und soziale Normen ähnelt. Die Art und Weise, wie wir uns gegenseitig beeinflussen, nicht so, wie wir es von Massenmedien und sozialen Medien kennen.

Die Meinung oder Voreingenommenheit der generativen KI überschneidet sich stark mit „dieser Wissensgemeinschaft“.

Sie sind vielleicht neugierig: Was ist die Tendenz der generativen KI „zu welcher Seite“ und „welcher Standpunkt wird hervorgehoben“?

Eine gemeinsame Studie des Doktoranden der Stanford University, Tatsunori Hashimoto, und des amerikanischen Meinungsforschungsinstituts Pew Research Center ergab, dass KI-Modelle für große Sprachen wie GPT selbst keine Überzeugungen haben, aber die aus dem Trainingsprozess gewonnenen Ansichten widerspiegeln.

Die Studie kombinierte die Ergebnisse der mehrjährigen Umfrage des Pew Research Center in den Vereinigten Staaten, um zu sehen, was mit der Meinungsverteilung groß angelegter Sprachmodelle im Vergleich zu den Ansichten tatsächlicher Amerikaner passiert. Dabei wurde festgestellt, dass die Gruppe mit den ähnlichsten Modellansichten von OpenAI ist die Gruppe mit einer Hochschulausbildung. Leute.

Beeinflusst KI also das menschliche Denken oder die „Ideologie“ erst nach dem Aufkommen der generativen KI? Nicht so.

Untersuchungen aus dem Jahr 2021 zeigten bereits Anzeichen dafür, dass die „Smart Reply“-Funktion in Googles Gmail zu dieser Zeit aufgrund ihrer Vorliebe für positive Aussagen eine positivere Kommunikation fördern konnte; eine andere Studie ergab, dass sich diese Funktion auch auf das Einkommen auswirkte. Absender fühlen sich herzlicher und kooperationsbereiter .

Siehe auch  Solos AirGo3, tragbarer ChatGPT

In Bezug auf aktuelle damit zusammenhängende Themen, wie das Verbot von GPT in bestimmten Institutionen und bei bestimmten Anlässen, sagten einige Experten, dass „emotionale Diskussionen“ beiseite gelegt werden sollten. Vorurteile sind eine mathematische Eigenschaft aller künstlichen Intelligenzsysteme. Jedes künstliche Intelligenzsystem, egal wie umfassend und komplex, keiner von beiden kann die Dynamik der realen Welt perfekt und genau erfassen.

Wählen Sie je nach Nutzungssituation von Einzelpersonen oder Organisationen die KI, die zu Ihnen „passt“.

In diesem Zusammenhang erklärte das OpenAI-Team, dass es ein tiefes Verständnis für die möglichen Auswirkungen von KI auf das menschliche Denken habe und sich verpflichtet habe, an der Lösung dieses Problems zu arbeiten und seine Absichten und Fortschritte transparent zu machen. OpenAI hat außerdem einige Richtlinien veröffentlicht, um klarzustellen, wie sein System reagiert, wenn es mit politischen und kulturellen Themen umgeht. Dazu gehört auch die Festlegung, dass sich Algorithmen bei der Generierung von Texten zu Kulturkonflikten, Kulturkriegen usw. nicht an irgendeiner Partei orientieren sollten. Beurteilen Sie beide Seiten als gut oder schlecht.

Als Reaktion auf diese immer bedeutenderen psychologischen Auswirkungen, die durch künstliche Intelligenz verursacht werden, glauben Forscher, dass die beste Verteidigung darin besteht, jeden „wirklich auf die Existenz und Macht der KI aufmerksam zu machen“; auf lange Sicht fordern Regulierungsbehörden beispielsweise Transparenz und Offenheit Es kann auch hilfreich sein, die Funktionsweise des KI-Algorithmus zu erklären und genau zu erklären, welche menschlichen Vorurteile die KI nachahmt.

Lydia Chilton, Informatikprofessorin an der Columbia University, glaubt, dass, sobald die Menschen die Voreingenommenheit der verwendeten KI verstehen, uns dies dabei helfen kann, zu entscheiden, welche KI wir unter welchen Umständen verwenden möchten, und uns vor Bedrohungen schützen kann implizite Überzeugung. Dies ist der ideale Weg, KI einzusetzen.

Siehe auch  Zaobao | ChatGPT „Netzwerkmodus“ ist vorübergehend offline / Die Akkukapazität der iPhone 15-Serie könnte erheblich verbessert werden / Sams Instant-Nudeleimer wurde auf 1.000 Yuan abgefeuert, und das Shenzhen Municipal Supervision Bureau intervenierte in den Ermittlungen

Im Idealfall entscheiden sich die Menschen in Zukunft bewusster für den Einsatz von „KI, die ihren eigenen Werten entspricht“, und Unternehmen und Organisationen werden mit hoher Wahrscheinlichkeit auch KI entwickeln, die speziell auf unterschiedliche Aufgaben und Situationen zugeschnitten ist, sodass künstliche Intelligenz Der Wert wird gesteigert das Extrem „bei richtiger Verwendung“.

In der Geschäftswelt wird SalesGPT beispielsweise darauf abgestimmt, überzeugender zu sein, insbesondere um Vertriebsmitarbeiter zu unterstützen, während SupportGPT darauf trainiert werden kann, höflicher gegenüber Kunden zu sein, d. h. basierend auf spezifischen Bedürfnissen und Werten geschaffen, um einen GPT mit einer bestimmten Persönlichkeit und einem bestimmten Stil zu schaffen.

Mit der Weiterentwicklung der KI-Technologie sollte die menschliche Reflexion nicht ruhen, sondern sich schneller drehen. Nur durch die ständige Bewertung des Standpunkts der KI kann die Dominanz des Denkens auf einen selbst fallen.

*Dieser Artikel kann gemeinsam nachgedruckt werden, Quelle:Wallstreet JournalNew Yorker Post,Bildquelle:unsplash

(Chefredakteur: You Maorong)

Sind Sie Es Gewohnt, Chatgpt Zu Verwenden? Vorsichtig! Ki-Tools „Passen“ Möglicherweise Heimlich Ihre Denkweise An | Techorange Technology News 2
Techorange-Karrieren
Sind Sie Es Gewohnt, Chatgpt Zu Verwenden? Vorsichtig! Ki-Tools „Passen“ Möglicherweise Heimlich Ihre Denkweise An | Techorange Technology News 3
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein