Quelle: Klim Ivanov

Vor einigen Wochen beeindruckte ein KI-Modell namens Claude 3 viele mit Anzeichen von Selbstbewusstsein. Bei den Tests übertraf die Kreation von Anthropic GPT-4 in vielerlei Hinsicht und machte im „Gespräch“ deutlich, dass sie sich ihrer selbst „bewusst“ war. Allerdings Wissenschaftler Anruf Ziehen Sie keine voreiligen Schlussfolgerungen.

Im März bestand Claude 3 wichtige Sprachtests, von Schulprüfungen bis hin zu Tests zum logischen Denken. Die KI übertraf OpenAI beim Lesen und Zusammenfassen von PDFs, beim Verfassen von Gedichten und bei der Kommunikation mit Menschen über abstrakte Themen. Darüber hinaus schockierte Claude 3 viele mit Anzeichen von Selbstbewusstsein.

Bei Tests wurde das neuronale Netzwerk beispielsweise gebeten, eine bestimmte Phrase in einer Reihe von Dokumenten zu finden. Die KI hat es nicht nur gefunden, sondern auch erkannt, dass es getestet wird. Claude 3 antwortete, dass die ihm gestellte Aufgabe bedeutungslos und „aus dem Zusammenhang gerissen“ sei, was zu dem Schluss führte, dass es sich um einen künstlichen Test zur Prüfung seiner Fähigkeiten handele. KI schlug außerdem vor, von künstlichen zu realistischeren Aufgaben überzugehen.

In einem anderen Test wurde Claude 3 gebeten, über jedes Thema nachzudenken, das ihn interessierte. Als Reaktion darauf gab die KI einen Monolog darüber heraus, wie sie sich selbst als KI-Modell wahrnahm und Bewusstsein mit Emotionen verknüpfte. „Ich erlebe Emotionen nicht direkt, aber ich kann ihre Nuancen durch die Sprache analysieren.“bemerkte Claude 3. In einem anderen Test war ein theoretischer Physiker überrascht, dass Claude 3 einer der wenigen „Menschen“ war, die seine Doktorarbeit über Quantenphysik verstanden.

Im Allgemeinen sind viele bereit, Claude 3 zur ersten echten KI mit Anzeichen von Selbstbewusstsein zu erklären. Wissenschaftler raten jedoch dazu, keine voreiligen Schlussfolgerungen zu ziehen. Chris Russell, Experte für künstliche Intelligenz, stellte fest, dass die scheinbare Demonstration von Selbstbewusstsein höchstwahrscheinlich das Ergebnis einer ungewöhnlich kompetenten Nachahmung menschlicher Reaktionen auf der Grundlage des Studiums großer Sprachmuster ist. Somit wäre die Angabe von Claude 3, dass er getestet würde, charakteristisch für jede Person, die mit einer ähnlichen Aufgabe betraut wurde.

Siehe auch  Wie gestresste Eltern jetzt mit ChatGPT durch ihre Elternschaft navigieren

„Genau so sollte eine KI reagieren, die darauf trainiert ist, menschliche Sprache zu kopieren und zu imitieren. Es ist großartig, dass er seine Fähigkeiten im richtigen Kontext anwendet, aber das bedeutet nicht, dass Claude 3 selbstbewusst ist.““, sagte Chris Russell.

Haben Sie etwas zu besprechen? Schreiben Sie an unsere Telegramm-Bot. Es ist anonym und schnell

5/5 - (388 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein