Bildnachweis: Pixabay/CC0 Public Domain

Zwei Drittel der Befragten glauben, dass Tools für künstliche Intelligenz (KI) wie chatgpt über ein gewisses Maß an Bewusstsein verfügen und subjektive Erfahrungen wie Gefühle und Erinnerungen ermöglichen können. Dies ist das Ergebnis einer neuen Studie der University of Waterloo.

Große Sprachmodelle (LLMs) wie ChatGPT geben Inhalte häufig im Konversationsstil aus. Diese menschenähnlichen Fähigkeiten haben Debatten darüber ausgelöst, ob KI über ein Bewusstsein verfügt.

Wenn die Menschen glauben, dass KI ein gewisses Maß an Bewusstsein hat, könnte dies laut den Forschern letztlich die Art und Weise beeinflussen, wie Menschen mit KI-Tools interagieren, was möglicherweise soziale Bindungen stärkt und das Vertrauen erhöht. Andererseits kann übermäßiges Vertrauen auch zu emotionaler Abhängigkeit, reduzierter menschlicher Interaktion und übermäßiger Abhängigkeit von KI bei wichtigen Entscheidungen führen.

Der Artikel „Volkspsychologische Zuschreibungen von Bewusstsein zu großen Sprachmodellen“ wurde veröffentlicht In Neurowissenschaft des Bewusstseins.

„Während die meisten Experten bestreiten, dass die aktuelle KI über ein Bewusstsein verfügen könnte, zeigt unsere Forschung, dass das KI-Bewusstsein für den Großteil der Öffentlichkeit bereits Realität ist“, sagte Dr. Clara Colombatto, Professorin für Psychologie an der Fakultät für Geisteswissenschaften in Waterloo.

Um die öffentliche Einstellung zum Bewusstsein von KI zu verstehen, befragten Colombatto und ihr Kollege Dr. Steve Fleming am University College London eine geschichtete Stichprobe von 300 Personen in den USA. Sie fragten sie, ob sie glaubten, dass ChatGPT über die Fähigkeit zu Bewusstsein sowie zu einer Reihe anderer mentaler Zustände verfügen könne – etwa die Fähigkeit, Pläne zu schmieden, logisch zu denken und Emotionen zu empfinden – und wie häufig sie das Tool nutzten.

Siehe auch  Wie Krankenpflegestudenten ChatGPT nutzen können

Die Untersuchung ergab, dass die Wahrscheinlichkeit, dass Menschen ChatGPT ein Bewusstsein zuschreiben, umso größer ist, je häufiger sie es verwenden. Dies ist ein wichtiger Aspekt, da KI-Tools zunehmend Teil unseres täglichen Lebens werden.

„Diese Ergebnisse demonstrieren die Macht der Sprache, denn allein ein Gespräch kann uns zu der Annahme verleiten, dass ein Agent, der ganz anders aussieht und funktioniert als wir, einen Verstand haben kann“, sagte Colombatto.

„Neben Emotionen ist das Bewusstsein mit intellektuellen Fähigkeiten verbunden, die für moralische Verantwortung wesentlich sind: Die Fähigkeit, Pläne zu schmieden, absichtlich zu handeln und Selbstkontrolle zu haben, sind Grundsätze unserer ethischen und rechtlichen Systeme. Diese öffentlichen Einstellungen sollten daher neben dem Expertenkonsens eine zentrale Überlegung bei der Gestaltung und Regulierung von KI für eine sichere Nutzung sein.“

Zukünftige Forschungen werden sich mit spezielleren Faktoren befassen, die diese Bewusstseinszuschreibungen beeinflussen, und mit deren Konsequenzen für Vertrauen und soziale Bindungen. Darüber hinaus werden mögliche Variationen innerhalb derselben Person im Laufe der Zeit und zwischen verschiedenen Personen in anderen Ländern und Kulturen untersucht.

Mehr Informationen: Clara Colombatto et al, Volkspsychologische Zuschreibungen von Bewusstsein an große Sprachmodelle, Neurowissenschaft des Bewusstseins (2024). DOI: 10.1093/nc/niae013

Zur Verfügung gestellt von der University of Waterloo

Zitat: Umfrage zeigt, dass die meisten Menschen glauben, dass LLMs wie ChatGPT Gefühle und Erinnerungen erleben können (2024, 2. Juli), abgerufen am 2. Juli 2024 von https://techxplore.com/news/2024-07-survey-people-llms-chatgpt-memories.html

Dieses Dokument unterliegt dem Urheberrecht. Außer für Zwecke des privaten Studiums oder der Forschung darf kein Teil davon ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient ausschließlich zu Informationszwecken.

Siehe auch  Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen

5/5 - (157 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein