In den jüngsten technologiebezogenen Branchen hat kaum eine neue Technologie einen tiefgreifenderen Einfluss gehabt als die KI. Vom Schreiben von Antworten über den Aufbau komplexer visueller Kunst bis hin zum Generieren von Musik und vielem mehr haben generative KI-Tools wie chatgpt die Fantasie der Öffentlichkeit beflügelt. Die Entwicklung ist so rasant und die Auswirkungen sind so groß, dass die Regulierungsbehörden sich bemühen, Schutzmaßnahmen zu schaffen, damit diese KI-Tools nicht menschliche Arbeitsplätze wegnehmen oder Schlimmeres bewirken.

Chatgpt Verändert Die Denkweise Der Menschen, Und Sie Sind Sich Der Versteckten Gefahren Möglicherweise Nicht Bewusst – Computerkönig Ada
Bildquelle:Pixabay

ChatGPT verändert die Denkmuster der Menschen und birgt versteckte Gefahren, die Sie vielleicht nicht erkennen

KI-Tools für künstliche Intelligenz sind alles andere als perfekt, insbesondere wenn es um ihre inhärenten Vorurteile geht, aber es scheint, dass diese Vorurteile nicht nur ein Fehler dieser KIs sind, da sie das Denken von Menschen, insbesondere von Kindern, beeinflussen können. Laut einer gemeinsamen Studie von Experten des Trinity College Dublin und der American Association for the Advancement of Science (AAAS) können diese KIs auch die Überzeugungen der Menschen verändern, insbesondere wenn es darum geht, was KI kann und worauf sie vertrauen sollten. existieren“WissenschaftEin wiederkehrendes Thema in den in der Zeitschrift veröffentlichten Forschungsarbeiten ist, dass Menschen, die fest davon überzeugt sind, dass diese KI-Programme über fundiertes Wissen verfügen, möglicherweise eher daran glauben. Eines der häufigsten Probleme bei generativen KI-Modellen in ChatGPT, Bard und Bing Chat sind falsche Geschichten.

Wie KI irreführend sein kann

Eine falsche Geschichte liegt vor, wenn eine KI Antworten generiert, die nicht Teil ihrer Trainingsdaten sind, oder Antworten, die nicht erwartet wurden, das KI-Modell sie aber trotzdem erfinden wird, um dem menschlichen Benutzer zu gefallen. ChatGPT ist bekanntermaßen anfällig für Falschmeldungen, ebenso wie Googles Bard. Eine der häufigsten Falschmeldungen sind historische Quellen. Wenn Sie ChatGPT beispielsweise über ein virtuelles Treffen zwischen zwei historischen Persönlichkeiten informieren, darunter Mahatma Gandhi, wird die falsche Beschreibung eines Gandhi-Essens und einer Schießerei selbstbewusst beantwortet, als wäre es ein reales historisches Ereignis.

Siehe auch  Lernen Sie ELIZA kennen: den Chatbot der 60er Jahre, der den Grundstein für ChatGPT legte
Die Chatgpt-App Kann Bing Direkt Unterstützen
Die Chatgpt-App Kann Bing Direkt Unterstützen
Bildnachweis: 9To5Mac

entsprechend Offizielle Artikel von AAAS, KI ist derzeit für Zwecke wie Suche und Informationsbereitstellung konzipiert, und es kann schwierig sein, die Meinung von Menschen zu ändern, die falsche oder voreingenommene Informationen durch KI erhalten. Der Artikel wies auch darauf hin, dass Kinder am anfälligsten für die negativen Auswirkungen von sind KI. Celeste Kidd, Professorin für Psychologie an der University of California in Berkeley und eine der Co-Autoren des Artikels, erklärte auf Twitter, dass die Fähigkeiten von KI-Modellen oft übertrieben und unrealistisch seien. Ein weit verbreitetes Missverständnis, dass diese Modelle über die menschliche Ebene hinaus denken erhöht das Risiko der Verbreitung von Desinformation und negativen Stereotypen. Der Grund dafür ist, dass es auf psychologischer Ebene funktioniert, da Menschen sich oft auf der Grundlage einer kleinen Information eine vollständige Meinung oder Idee bilden.

KI-Modelle sind eine fehlerhafte Informationspipeline

Wenn KI als Quelle wichtiger Informationen und Ideen für eine Person dient, wird es sehr schwierig, diese tief verwurzelten Überzeugungen zu ändern, selbst wenn sie später mit den richtigen Informationen konfrontiert wird, und genau hier wird generative KI gefährlich. Durch die Generierung falscher Geschichten kann KI nicht nur Menschen dazu bringen, falsche Informationen zu glauben, sondern auch inhärente Vorurteile in das Bewusstsein menschlicher Benutzer einschleusen. Noch gefährlicher ist die Situation, wenn es um Kinder geht, die eher den Informationen vertrauen, die durch diese generativen KI-Modelle gewonnen werden, als traditionellen Quellen sorgfältig recherchierter Informationen und der Aufklärung der Eltern.

Siehe auch  ChatGPT iOS App offiziell in mehr als 40 Ländern eingeführt | iThome

Was Ist Der Größte Unterschied Zwischen Chatgpt Und Bing Chat? Welches Ist Besser? - Computerkönig Ada

Was Ist Der Größte Unterschied Zwischen Chatgpt Und Bing Chat? Welches Ist Besser? - Computerkönig Ada

Der Einsatz generativer KI wie ChatGPT in Bildungseinrichtungen ist zu einem heiß diskutierten Thema geworden, wobei Mitglieder der akademischen Gemeinschaft nicht nur über Plagiate besorgt sind, sondern auch darüber, wie sie die Art und Weise, wie junge Menschen Wissen sammeln und dazu neigen, ihre eigene Forschung zu betreiben, grundlegend verändern werden Experimentieren. Celeste Kidd hebt auch einen weiteren Schlüsselfaktor hervor: den sprachlichen Determinismus. Er wies darauf hin, dass Menschen im Kommunikationsprozess häufig Wörter wie „Ich denke“ verwenden, um auszudrücken, dass die übermittelten Informationen möglicherweise aus persönlichen Meinungen oder Erinnerungen stammen, sodass es zwar leicht zu Fehlern kommt, diese jedoch gehört werden können. Andererseits verfügen gesprächige generative KI-Modelle wie ChatGPT und Bard nicht über so subtile Darstellungen, dass Benutzer den Unterschied erkennen können.

Die fehlgeleitete Vertrauensschleife

Celeste Kidd wies darauf hin, dass Modelle der KI-Generation im Vergleich zu Menschen einseitig Antworten mit sicheren und fließenden Aussagen geben, ohne Anzeichen von Unsicherheit, und nicht in der Lage sind, ihre eigene Unsicherheit zu vermitteln. Um eine Haftung zu vermeiden, vermeiden diese KI-Modelle entweder den Einsatz „als KI-Modell“, um Meinungsäußerungen zu sensiblen Themen zu vermeiden, oder sie generieren einfach falsche Geschichten und fabrizieren falsche Informationen und präsentieren sie so, als ob sie real wären.

Sie Wissen Nicht, Wie Sie Von Chatgpt Genauere Und Detailliertere Antworten Erhalten? 35 Universelle Formeln Für Sie Zusammengestellt – Computer King Ada

Sie Wissen Nicht, Wie Sie Von Chatgpt Genauere Und Detailliertere Antworten Erhalten? 35 Universelle Formeln Für Sie Zusammengestellt – Computer King Ada

Je häufiger eine Person falsche Informationen erhält, desto stärker ist ihr Glaube an solche Fehlinformationen. Ebenso ist es wahrscheinlicher, dass die Wiederholung zweifelhafter Informationen, insbesondere wenn sie von einem „vertrauenswürdigen“ KI-Modell stammen, beim Menschen falsche Vorstellungen hervorruft, was wahrscheinlich zu einer Desinformationsschleife führt.

die Situation wird nur noch schlimmer werden

Das Papier wies auch darauf hin, dass Benutzer, wenn sie sich unsicher fühlen, sich der KI als Informationsquelle zuwenden. Sobald sie eine Antwort haben, egal ob sie zu 100 % richtig ist oder nicht, verschwinden ihre Zweifel und auch ihre Neugier, weil sich ihre Meinung gebildet hat. Dies hat zur Folge, dass sie neue Informationen nicht mehr so ​​dringend berücksichtigen oder abwägen wie damals, als sie sie zum ersten Mal benötigten.

Siehe auch  Nancy: ChatGPT wird von IUT-Studenten massiv genutzt, ein Test wurde abgesagt

Wie Geht Chatgpt Mit Benutzerdaten Und Chatverlauf Um? - Computerkönig Ada

Wie Geht Chatgpt Mit Benutzerdaten Und Chatverlauf Um? - Computerkönig Ada

Besorgniserregend scheint die wachsende Vielfalt an KI-Modellen, die Antworten in mehreren Formaten generieren können, keine Abhilfe zu schaffen. ChatGPT und Microsofts Bing Chat geben Antworten in Textform, es gibt generative KI-Modelle wie Dall-E und midjourney, die Bilder aus Textbeschreibungen generieren, es gibt Tools, die Audio aus gemeinfreien Dateien generieren und mehr.

Whistleblower Wurde Kriminell?Der Whistleblower Von Australiens Schwerwiegendem Fehlverhalten Plant, Eine Verleumdungsklage Gegen Chatgpt Einzureichen, Das Falsche Informationen Geliefert Hat – Computerkönig Ada

Whistleblower Wurde Kriminell?Der Whistleblower Von Australiens Schwerwiegendem Fehlverhalten Plant, Eine Verleumdungsklage Gegen Chatgpt Einzureichen, Das Falsche Informationen Geliefert Hat – Computerkönig Ada

Mit dem Upgrade von GPT-4 ist ChatGPT von OpenAI multimodal geworden. In seinen Hin- und Herberechnungen, insbesondere auf der visuellen Seite, zeigt die Voreingenommenheit erneut ihr hässliches Haupt. Beim Testen von ChatGPT mit Filmemachern stellte sich heraus, dass es in Bezug auf kreative Ergebnisse wie Kunst, Sprache, Geographie und Kultur eine klare Präferenz für westlich orientierte englischsprachige Erzählungen gibt. Für jemanden, der sich des Problems der KI-Voreingenommenheit nicht bewusst ist, ist es selbstverständlich, die Ergebnisse der KI als verlässliche Informationen zu betrachten und sich eine feste Überzeugung zu bilden, die auf einer fehlerhaften Grundlage basiert.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein