Als der Schriftsteller und Journalist Juan José Millás im September ein Gespräch mit chatgpt führte, gab er vor, eine Psychoanalysesitzung mit dem Tool durchzuführen. Mit dem Turing-Test wollte er herausfinden, ob der Chatbot mit ihm wie mit einer realen Person – genauer gesagt wie einem Psychoanalytiker – und nicht mit einem Computer sprechen kann. Der Journalist erzählte der künstlichen Intelligenz von seinen Träumen und Ängsten und wartete darauf, dass die KI ihn in der Therapie anleiten würde, doch diese sagte ihm unter anderem immer, dass es sich um eine imaginäre Situation handele und erklärte, dass es sich um ein Sprachmodell handele. Millás nannte seinen virtuellen Psychoanalytiker engstirnig und vergesslich; Letztendlich sagte ihm das, dass die KI den Test nicht bestanden hatte.

In Gesprächen wie dem von Millás wirken sich die vorherigen Überzeugungen einer Person über einen Agenten der künstlichen Intelligenz (KI) wie ChatGPT auf das Gespräch und auf die Wahrnehmung der Zuverlässigkeit, Empathie und Wirksamkeit des Tools aus, so Forscher des Massachusetts Institute of Technology (MIT) und der Arizona State University, die kürzlich veröffentlichte eine Studie in der Naturmaschinenintelligenz Tagebuch. „Wir haben herausgefunden, dass künstliche Intelligenz die Intelligenz des Betrachters ist. Wenn wir Benutzern beschreiben, was ein KI-Agent ist, verändert das nicht nur ihr mentales Modell; es verändert auch ihr Verhalten. Und da das Tool auf den Benutzer reagiert, ändert sich auch das Verhalten des Tools, wenn Menschen ihr Verhalten ändern“, sagt Pat Pataranutaporn, Doktorand in der Fluid Interfaces-Gruppe am MIT Media Lab und Mitautor der Studie.

„Viele Leute denken, KI sei nur ein technisches Problem, aber ihr Erfolg ist auch ein menschliches Problem“, sagt Pattie Maes, Autorin der Studie und MIT-Professorin. Wie wir darüber sprechen, kann einen großen Einfluss auf die Wirksamkeit dieser Systeme haben. „Wir schreiben der KI menschliche Formen und Qualitäten zu und lassen sie dadurch menschlicher oder persönlicher erscheinen, als sie tatsächlich ist“, fügt Ruby Liu hinzu.

Siehe auch  Dies und nicht ChatGPT wurde vom Collins Dictionary zum Wort des Jahres gekürt

An der Studie nahmen 310 Teilnehmer teil, die die Forscher in drei zufällig ausgewählte Gruppen einteilten. Anschließend gaben sie jeder Gruppe unterschiedliche Hintergrundinformationen zum Thema KI. Die Teilnehmer mussten etwa 30 Minuten lang mit einem KI-Agenten über ihre psychische Gesundheit sprechen, feststellen, ob sie sie einem Freund empfehlen würden, und diese bewerten. Der ersten Gruppe wurde gesagt, dass der Agent bei dem Gespräch keine Absichten verfolgte, der zweiten wurde gesagt, dass die KI wohlwollende Absichten verfolgte und sich um ihr Wohlergehen kümmerte, und der dritten wurde gesagt, dass sie böswillige Absichten hatte und versuchen würde, sie auszutricksen.

Die Hälfte der Teilnehmer jeder Gruppe sprach mit einem Agenten der künstlichen Intelligenz, der auf dem generativen Sprachmodell GPT-3 basiert, einem Deep-Learning-Modell, das menschenähnlichen Text generieren kann. Die andere Hälfte sprach mit einer Implementierung des ELIZA-Chatbots, einem weniger ausgefeilten, regelbasierten Programm zur Verarbeitung natürlicher Sprache, das in den 1960er Jahren am MIT entwickelt wurde.

Die Ergebnisse der Studie zeigten, dass die Veranlagung der Benutzer gegenüber dem Tool ausschlaggebend war: 88 % der Personen, die positive Informationen erhielten, und 79 % derjenigen, die neutrale Informationen erhielten, glaubten, dass die KI einfühlsam bzw. neutral sei. Ángel Delgado, KI-Ingenieur bei Paradigma Digital, glaubt, dass die positive Mehrheit auch auf die Verwendung von GPT-3 zurückzuführen ist, das als erstes den Turing-Test besteht: „Es besteht darin, eine Person mit der KI interagieren zu lassen.“ [tool] ohne ihnen zu sagen, ob es sich um KI handelt oder nicht, um zu sehen, ob sie es erraten können. GPT-3 ist das erste Sprachmodell, das so gute Ergebnisse erzielt hat, dass es wie ein Mensch aussieht.“

Siehe auch  Siri der nächsten Generation wird voraussichtlich in iOS 18 im ChatGPT-Stil eingeführt

Menschen, denen gesagt wurde, dass das Tool fürsorglich sei, sprachen tendenziell positiver mit dem Tool, was auch zu positiveren Reaktionen des Agenten führte. Ramón López de Mántaras, Direktor des Forschungsinstituts für künstliche Intelligenz des spanischen Nationalen Forschungsrats, erklärt, dass das Tool umso mehr lernt, je mehr man mit ihm spricht: „Der Gesprächspartner lehrt künstliche Intelligenz. Sie können die Antworten korrigieren, bestätigen und qualifizieren“, fügt er hinzu.

Aus Angst vor dem Terminator auf mangelnde Kritik zurückzuführen

Negative Priming-Aussagen (d. h. ungünstige Informationen, die jemandem unmittelbar vor der Interaktion mit dem KI-Agenten gegeben wurden) hatten den gegenteiligen Effekt: Nur 44 % der Teilnehmer, die wenig schmeichelhafte Informationen über das Tool erhielten, vertrauten ihm. „Mit den negativen Aussagen haben wir sie nicht darauf vorbereitet, etwas zu glauben, sondern darauf, sich eine eigene Meinung zu bilden. Wenn man jemandem sagt, er solle einer Sache gegenüber misstrauisch sein, wird er im Allgemeinen wahrscheinlich noch misstrauischer sein“, sagt Ruby Liu.

Der Einfluss von Science-Fiction sei ein Schlüsselfaktor für negatives Denken über KI, erklärt Patti Maes. „Filme wie Der Terminator Und Die Matrix stellen Szenarien dar, in denen KI sich ihrer selbst bewusst wird und den Untergang der Menschheit herbeiführt. Diese fiktiven Berichte tragen zu der Angst bei, dass KI die menschliche Intelligenz übernehmen und überholen könnte, was eine Bedrohung für unsere Existenz darstellen würde.“

Den Erkenntnissen der Studie zufolge können frühere Gedanken über Sprachmodelle einen so starken Einfluss haben, dass sie dazu genutzt werden könnten, den Agenten leistungsfähiger erscheinen zu lassen, als er ist, und dazu führen, dass Menschen ihm zu sehr vertrauen oder falschen Ratschlägen folgen. López de Mántaras bringt es auf den Punkt: „Das Werkzeug, mit dem Sie interagieren, ist kein intelligenter Mensch. Die Menschen glauben, dass die Maschine intelligent ist und hören zu, was sie sagt, ohne kritisch zu denken … Wir werden immer weniger in der Lage, kritisch zu denken.“

Siehe auch  OpenAI übernimmt Kosten für Klagen wegen Urheberrechtsverletzung, die sich aus der Nutzung von ChatGPT ergeben; Amazon wird wegen Patentverletzung im Wert von 46,7 Millionen US-Dollar verurteilt; und der Wert des Musikurheberrechts übersteigt 40 Milliarden US-Dollar

Experten sind sich einig, dass wir uns darüber im Klaren sein müssen, wie künstliche Intelligenz funktioniert, und dass wir verstehen müssen, dass sie programmiert ist. „Wir sollten die Menschen stärker darauf vorbereiten, vorsichtiger zu sein und zu verstehen, dass KI-Agenten halluzinieren können und voreingenommen sind. Wie wir über KI-Systeme sprechen, wird einen großen Einfluss darauf haben, wie Menschen darauf reagieren“, sagt Maes.

Melden Sie sich an für unseren wöchentlichen Newsletter, um mehr englischsprachige Berichterstattung von der EL PAÍS USA Edition zu erhalten

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein