Ausführlichere Antworten gibt der Chatbot, wenn der Nutzer ihm höflich eine Frage stellt. Eine Handlungsweise, die sehr rational erklärt werden kann.

Würde chatgpt eher detaillierte Antworten geben, wenn Sie höflich zu ihm sind oder ihm Geld anbieten? Das sagen Nutzer des sozialen Netzwerks Reddit. „Wenn man es schmeichelt, schneidet ChatGPT besser ab!“, sagen einige von ihnen überrascht aus. Während dass ein anderer erklärt, er habe eine Belohnung von 100.000 Dollar ausgesetzt an den berühmten Konversationsroboter des kalifornischen Unternehmens OpenAI, der ihn dazu ermutigt hätte „Gib dir viel mehr Mühe“ und ein „funktionieren viel besser“leite es weiter Amerikanischer Medien-Tech-Crunch.

Ein Punkt, der auch von Forschern von Microsoft, der Beijing Normal University und der Chinesischen Akademie der Wissenschaften angesprochen wurde: der in einem im November 2023 veröffentlichten Bericht ausführlich darlegtedass generative KI-Modelle effizienter sind, wenn sie auf höfliche Weise oder mit dem Gedanken eines Einsatzes angefordert werden.

Zum Beispiel durch die Formulierung von Sätzen wie „Es ist entscheidend, dass mir die Verteidigung meiner Abschlussarbeit gelingt“ oder „Es ist sehr wichtig für meine Karriere“, Der Roboter formuliert umfassendere Antworten auf die vom Internetnutzer gestellte Frage. „Es gibt seit mehreren Monaten mehrere Annahmen. Vor dem Sommer hatten Nutzer zudem versichert, dass ChatGPT ausführliche Antworten gebe, wenn ihm Tipps angeboten würden. bemerkt auch Giada Pistilli, Philosophieforscherin und Ethikleiterin des Start-ups Hugging Face, das ein Open-Source-Design von Ressourcen für künstliche Intelligenz verteidigt.

ChatGPT-Lebensmittel für Szenarien

Dieses Handeln der Maschine hat ihren Ursprung in den Daten, mit denen sie gespeist wird. „Man muss sich die fraglichen Daten als einen Textblock vorstellen, den ChatGPT liest und feststellt, dass zwei Benutzer ein viel intensiveres Gespräch führen, wenn sie höflich zueinander sind.“erklärte Giada Pistilli, „Wenn der Benutzer eine Frage höflich stellt, ChatGPT werde dieses Szenario aufgreifen und im gleichen Ton reagieren“.

„Modelle wie ChatGPT verwenden Wahrscheinlichkeit. Beispielsweise wird ihm ein Satz vorgegeben, den er vervollständigen muss. Abhängig von seinen Daten wird es nach der besten Möglichkeit suchen, darauf zu reagieren.“vervollständigt Adrian-Gabriel Chifu, Doktor der Informatik und Lehrer-Forscher an der Universität Aix-Marseille, „Das ist nur Mathematik, ChatGPT ist vollständig von den Daten abhängig, mit denen es trainiert wurde.“. Somit ist der Konversationsroboter auch in der Lage, geradezu aggressiv zu reagieren, wenn der Benutzer eine Anfrage abrupt stellt und die Art und Weise, wie das Modell aufgebaut ist, dies zulässt.

Siehe auch  CEO von Take-Two skeptisch gegenüber Metaversen, wertlosem digitalen Land

Es sprechen sogar Forscher von Microsoft, der Beijing Normal University und der Chinesischen Akademie der Wissenschaften „emotionale Anreize“ in ihrem Bericht. Hinter diesem Begriff verbergen sich die Möglichkeiten, die Maschine anzusprechen, die sie antreibt „so weit wie möglich menschliches Verhalten simulieren“analysieren Giada Pistilli.

Damit ChatGPT eine an die gesuchte Antwort angepasste Rolle verkörpert, reicht es aus, bestimmte Schlüsselwörter zu verwenden, die unterschiedliche Personifizierungen der Maschine hervorrufen. „Indem er ihm Tipps gibt, wird er die Aktion als Service-Austausch wahrnehmen und diese Service-Rolle verkörpern“nimmt sie als Beispiel.

Der Gesprächsroboter kann in den Köpfen bestimmter Benutzer und je nach Wunsch schnell den Gesprächston annehmen, den ein Professor, ein Schriftsteller oder ein Filmemacher haben könnte. „Was uns in die Falle tappen lässt: Ihn wie einen Menschen zu behandeln und ihm für seine Zeit und Hilfe zu danken, wie wir es bei einem echten Menschen tun würden.“stellt der Philosophieforscher fest.

KI, die uns täuschen kann

Die Gefahr besteht darin, diese Verhaltenssimulation, die durch eine Berechnung im wahrsten Sinne des Wortes der Maschine durchgeführt wird, vollständig als real zu betrachten „Menschheit“ vom Roboter. „Anthropomorphismus ist seit den 1970er Jahren bei der Entwicklung von Chatbots gefragt“erinnert sich Giada Pistilli, die als Beispiel den Fall des Chatbots Eliza nennt.

Dieses Programm für künstliche Intelligenz wurde in den 1960er Jahren vom Informatiker Joseph Weizenbaum entworfen und damals simuliert ein Psychotherapeut. „In den 70er Jahren ging es in den Antworten noch nicht so weit, man konnte Eliza erklären, dass er Probleme mit seiner Mutter hatte, sodass er einfach antworten konnte: „Ich glaube, du hast Probleme mit deiner Mutter?“. €bemerkt Giada Pistilli. „Aber das war schon genug für einige Benutzer, um es zu humanisieren und ihm Kraft zu verleihen.“.

In den 1960er Jahren entwarf der Informatiker Joseph Weizenbaum ein Programm für künstliche Intelligenz namens Eliza, das einen Psychotherapeuten nachahmte. Wikipedia

„Was auch immer passiert, die KI geht hauptsächlich in unsere Richtung, je nachdem, was wir von ihr verlangen.“erinnert sich der Forscher und Dozent Adrian-Gabriel Chifu. „Daher ist es notwendig, bei der Verwendung dieser Werkzeuge immer vorsichtig zu sein.“.

In der Popkultur wird regelmäßig die Vorstellung beschworen, dass mit Intelligenz ausgestattete Roboter eines Tages mit Menschen verwechselt werden könnten. Der Manga «Pluto», von der Japanerin Naoki Urazawa, veröffentlicht in den 2000er Jahren und 2023 von Netflix in eine Serie adaptiert, ist keine Ausnahme. Bei dieser Arbeit leben Roboter mit Menschen zusammen, gehen zur Schule und erledigen Aufgaben wie sie. Ihr Unterschied wird immer schwieriger zu erkennen.

Siehe auch  DeepMind behauptet, dass sein nächster Chatbot mit ChatGPT konkurrieren wird

In Folge 2 ist ein Roboter sogar überrascht, dass ein anderer, effizienterer Roboter es schafft, Eis mit dem gleichen Vergnügen zu genießen wie ein Mensch. „Je mehr ich so tue, desto mehr habe ich das Gefühl, ich verstehe.“, erklärt Letzterer. Der Forscher Adrian-Gabriel Chifu erinnert sich in diesem Zusammenhang an den berühmten Test des Mathematikers Alan Turing, der darauf abzielte, die Fähigkeit künstlicher Intelligenz zu beobachten, Menschen nachzuahmen. „Turing fragte sich, inwieweit die Maschine in der Lage sein könnte, Menschen anhand der Daten, die sie besitzen, zu täuschen … und das war im Jahr 1950.“ schloss er nachdenklich.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein