Eine neue Umfrage wirft Licht auf KI-Tools wie chatgpt und die möglichen Meinungen der Leute dazu.

Der Umfrage in Frage gestellt Menschen zu ihren Gedanken zu den führenden KI-Tools befragt und ob sie meinen, dass große Sprachmodelle tatsächlich Gefühle hätten oder Erinnerungen bewahren könnten. Überraschenderweise sagten viele der Befragten „Ja“ und wir sprechen hier von zwei Dritteln der Mehrheit.

Dank der Forschungen der University of Waterloo sind viele zu dem Schluss gekommen, dass KI eine Form bewussten Verhaltens zeigt und daher zu subjektiven Erfahrungen wie dem Bilden von Erinnerungen oder dem Empfinden von Emotionen führen kann.

LLMs legen bei der Bereitstellung von Inhalten häufig einen Konversationsstil an den Tag, und solche menschlichen Fähigkeiten geben Anlass zu Debatten darüber, ob KI wirklich über ein Bewusstsein verfügt.

Wenn Menschen so starke Ansichten über KI-Tools haben, hat das laut Experten letztlich Auswirkungen darauf, wie sie mit ihnen arbeiten und interagieren. Darüber hinaus entstehen dadurch starke soziale Bindungen und es entsteht mehr Vertrauen.

Gleichzeitig ist zu viel Vertrauen auch keine gute Sache, da es eine starke emotionale Abhängigkeit und eingeschränkte menschliche Interaktion mit sich bringt, ganz zu schweigen von der übermäßigen Abhängigkeit von KI bei wichtigen Entscheidungen.

Viele KI-Experten haben immer wieder bestritten, dass KI über ein Bewusstsein verfügen könnte, doch dieser neuen Studie zufolge beweisen die Meinungen der breiten Öffentlichkeit das Gegenteil.

Viele Menschen glauben an diese Realität, und deshalb haben die Autoren eine Umfrage gestartet, um genau das zu beweisen. Die Ergebnisse liegen uns vor. Fast 300 Personen aus den USA haben daran teilgenommen, und die meisten von ihnen stimmen darin überein, dass ChatGPT bewusst ist. Vielleicht sollten wir das für die Zukunft der KI in Betracht ziehen.

Siehe auch  sensationelles Krypto-Experiment auf ChatGPT mit einem Budget von 69 Dollar – Krypto auf vc.ru

Die Teilnehmer wurden gebeten, den mentalen Zustand der Tools und ihre Fähigkeit zur Produktion von Plänen, Schlussfolgerungen und Emotionen zu kommentieren, ganz zu schweigen davon, wie häufig sie das Tool nutzten.

Darüber hinaus ergab die Studie, dass die Menschen umso mehr Gefühle äußern, je mehr sie ChatGPT nutzen. Dies ist bedeutsam, wenn man bedenkt, wie häufig KI in unserem täglichen Leben zum Einsatz kommt.

Die Autoren erläuterten auch, dass die Ergebnisse die Macht der Sprache verdeutlichten, da ein einfacher Chat allein viele zu der Annahme verleiten könnte, dass Agenten, die anders aussehen und arbeiten als sie, auch einen eigenen Kopf haben könnten.

Abgesehen von Emotionen hat Bewusstsein mit Intelligenz zu tun, die mit moralischen Verantwortlichkeiten verknüpft ist. Es geht dabei um die Fähigkeit, Pläne zu entwickeln und auf eine bestimmte Weise zu handeln, ganz zu schweigen von der größeren Selbstkontrolle bei ethischen Fragen und Rechtsfragen.

Damit eröffnet sich die Möglichkeit für weitere wissenschaftliche Experimente und Studien, um KI-Modelle im Detail besser zu verstehen und zu verstehen, wie Menschen sie im Laufe der Zeit weltweit wahrnehmen. Schließlich ist die soziale Bindung mit LLM- und KI-Tools etwas, worüber in der Vergangenheit nie gesprochen wurde.

Lesen Sie weiter: Studie zeigt, dass KI im Gesundheitswesen eingesetzt werden kann, da sie bessere Antworten gibt als die meisten Ärzte

5/5 - (138 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein