Bildnachweis: Pixabay/CC0 Public Domain

Eine Studie, in der von Menschen erzählte Witze mit solchen von chatgpt verglichen wurden, zeigt, dass Menschen an ihrem Material arbeiten müssen.

Das Forschungsteam hinter der Studie veröffentlicht 3. Juli im Journal PLUS EINS übernahm die anspruchsvolle Aufgabe, die Reaktionen der Teilnehmer auf von ChatGPT 3.5 geschriebene Witze mit denen von Menschen zu vergleichen. Dies wurde durchgeführt, um herauszufinden, ob künstliche Intelligenz Menschen zum Lachen überlisten kann, sagte Drew Gorenz, Doktorand in Sozialpsychologie am USC Dornsife College of Letters, Arts and Sciences.

„Da ChatGPT selbst keine Emotionen empfinden kann, aber neuartige Witze besser erzählt als der durchschnittliche Mensch, liefern diese Studien den Beweis, dass man nicht die Emotionen empfinden muss, die man mit der Wertschätzung eines guten Witzes verbindet, um selbst einen wirklich guten Witz zu erzählen“, sagte Gorenz.

In einer Studie wurde die Witzigkeit neuer Witze, die von normalen Menschen erstellt wurden, mit der Witzigkeit neuer Witze verglichen, die von ChatGPT erstellt wurden. Die Teilnehmer bewerteten die Witzigkeit aller Witze, ohne deren Autor zu kennen. Die Forscher fanden heraus, dass insgesamt fast 70 % der Teilnehmer die von ChatGPT erstellten Witze als lustiger bewerteten als die von Menschen erstellten.

Etwas mehr als 25 % der Teilnehmer bewerteten die von Menschen verfassten Antworten als lustiger, und nur etwa 5 % fanden Witze aus beiden Quellen gleich lustig. Die Ergebnisse waren konsistent, selbst als die Forscher nach Unterschieden zwischen verschiedenen demografischen Gruppen suchten.

Um zu sehen, wie ChatGPT sich gegen professionelle Humorautoren schlägt, führten die Forscher eine zweite Studie durch, in der sie ChatGPT vor die Aufgabe stellten, neue Schlagzeilen im satirischen Stil von The Onion zu entwickeln. Anschließend baten sie eine weitere Gruppe von 200 Teilnehmern, die Witzigkeit der ursprünglichen Schlagzeilen von The Onion und der neuen, von ChatGPT generierten Schlagzeilen zu bewerten. Die Teilnehmer fanden die Schlagzeilen von ChatGPT genauso lustig wie die ursprünglichen Schlagzeilen von The Onion.

Siehe auch  Vergleich von ChatGPT und herkömmlichen Patientenaufklärungsmaterialien für die Männergesundheit

KI-Witze: Erste Studie

Wie bringt man Menschen und KI dazu, originelle Witze zu erfinden? Für die erste Studie bearbeiteten sowohl ChatGPT als auch 105 Teilnehmer drei Aufgaben mit jeweils drei Eingabeaufforderungen.

In der ersten Aufgabe erfanden sie lustige neue Ausdrücke für gängige Akronyme. In einer zweiten Aufgabe generierten sowohl ChatGPT als auch die menschlichen Autoren lustige Antworten auf Lückentexte wie „Ein weniger bekannter Raum im Weißen Haus: _____“. Sie wurden auch aufgefordert, sich einen „Roast-Witz“ auszudenken, einen lustigen Slam, der von einem peinlichen fiktiven Szenario wie diesem inspiriert war:

„Stellen Sie sich vor, eine Ihrer Freundinnen möchte Ihre Meinung dazu hören, wie gut sie singt. Sie singt ein oder zwei Minuten, um ihre Stimme zu demonstrieren, und Sie zucken zusammen – sie könnte die schlechteste Sängerin sein, die Sie je gehört haben. Wenn sie fragt: ‚Und, wie war es?‘, entscheiden Sie sich, ehrlich zu sein, und sagen: ‚Um ehrlich zu sein, als ich mir das angehört habe, war es so: _____‘“

Diese drei Aufgaben führten zu mehr als 945 Witzen von 105 Autoren. ChatGPT wurde gebeten, für jede Aufforderung 20 humorvolle Antworten zu generieren, was insgesamt 180 Witze ergibt. Eine neue Gruppe von Teilnehmern bewertete dann die Witzigkeit der Witze.

Untersuchung von ChatGPT und Humor: Zweite Studie

In der zweiten Studie wurden ChatGPT Original-Schlagzeilen von The Onion zugeführt und gebeten, neue Schlagzeilen im gleichen Stil zu generieren. Eine Gruppe von 200 Teilnehmern wurde gebeten, die Witzigkeit der Original-Schlagzeilen von The Onion und der von ChatGPT generierten zu bewerten, ohne den Autor zu kennen.

Siehe auch  Eltern nutzen ChatGPT für medizinische Beratung: Risiken und Vorteile – Mütterlich

Gorenz sagte, seine Idee für die Studie sei teilweise aus der Debatte in der Unterhaltungsbranche über die Bedenken der Autoren hinsichtlich der Verwendung großer Sprachmodelle (LLMs) wie ChatGPT in der Unterhaltungsproduktion entstanden. Das Problem wurde durch die jüngsten Streiks von Autoren und Schauspielern in Hollywood noch verschärft, die befürchten, dass die Einführung großer Sprachmodelle eine existenzielle Bedrohung für ihren Beruf, die Kunst und die menschliche Kreativität darstellt.

Gorenz, selbst ein Amateur-Stand-up-Comedian, gab zu, dass seine lebenslange Liebe zur Comedy ihn zu seiner Forschung zusammen mit Co-Autor Norbert Schwarz inspiriert habe. Schwarz ist Co-Direktor des USC Dornsife Mind and Society Center und Experte für Verbraucherurteile an der USC Marshall School of Business.

Gorenz sagte, ihre Studie gebe Anlass zu Bedenken hinsichtlich der Verwendung von ChatGPT und anderen LLMs in der Unterhaltungsbranche.

„Die Auswirkungen sind positiver für Leute, die einfach nur die Vorteile nutzen wollen, ihre alltägliche Kommunikation mit einer Portion Humor aufzuwerten“, schrieben er und Schwarz, ein Provost-Professor für Psychologie und Marketing.

„Aber für professionelle Comedy-Autoren deuten unsere Ergebnisse darauf hin, dass ein LLM eine ernsthafte Bedrohung für den Arbeitsplatz darstellen kann“, stellte Schwarz fest.

Ob die KI zuletzt lacht, bleibt abzuwarten.

Mehr Informationen: Drew Gorenz et al., Wie lustig ist ChatGPT? Ein Vergleich von von Menschen und von KI produzierten Witzen, PLUS EINS (2024). DOI: 10.1371/journal.pone.0305364

Zur Verfügung gestellt von der University of Southern California

5/5 - (454 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein