Achtung: Für diese Grafik ist JavaScript erforderlich. Für ein optimales Erlebnis aktivieren Sie bitte JavaScript.

Zu Ihren gespeicherten Geschichten hinzufügen

chatgpt’s release a year ago triggered a wave of panic among educators. Now, universities are in the midst of college application season, concerned that students might use the artificial intelligence tool to forge admissions essays.“ class=“wpds-c-hcZlgz wpds-c-hcZlgz-bkfjoi-font-georgia wpds-c-hcZlgz-jDmrXh-width-mdCenter wpds-c-hcZlgz-ibdLmgo-css“>Die Veröffentlichung von ChatGPT vor einem Jahr löste eine Welle der Panik unter Pädagogen aus. Jetzt befinden sich die Universitäten mitten in der Bewerbungsphase für Hochschulen und befürchten, dass Studenten das Tool der künstlichen Intelligenz nutzen könnten, um Zulassungsaufsätze zu fälschen.

Aber ist ein von einem Chatbot erstellter Aufsatz gut genug, um Zulassungsberater für Hochschulen zu täuschen?

Um das herauszufinden, hat die Washington Post einen Prompt-Ingenieur – einen Experten für die Steuerung von KI-Chatbots – gebeten, College-Aufsätze mit ChatGPT zu erstellen. Der Chatbot produzierte zwei Aufsätze: einen als Antwort auf eine Frage aus der Common Application, die Tausende von Hochschulen für Zulassungen verwenden, und einen als Antwort auf eine Aufforderung, die ausschließlich für Bewerber an der Harvard University verwendet wird.

college admissions counselor, Adam Nguyen, who previously advised students at Harvard University and read admissions essays at Columbia University.We presented Nguyen with a control: a set of real college admissions essays penned by Jasmine Green, a Post intern who used them to get into Harvard University, where she is currently a senior." class="wpds-c-hcZlgz wpds-c-hcZlgz-bkfjoi-font-georgia wpds-c-hcZlgz-jDmrXh-width-mdCenter wpds-c-hcZlgz-ibdLmgo-css">Wir haben diese Aufsätze einem ehemaligen Ivy League-Mitglied präsentiertAdam Nguyen, Berater für Hochschulzulassungen, der zuvor Studenten an der Harvard University beraten und Zulassungsaufsätze an der Columbia University gelesen hat.Wir präsentierten Nguyen eine Kontrolle: eine Reihe echter Essays über Hochschulzulassungen, verfasst von Jasmine Green, einer Post-Praktikantin, die sie nutzte, um an die Harvard University zu gelangen, wo sie derzeit im Abschlussjahr studiert.
Siehe auch  ChatGPT-Benutzer beschweren sich, dass die KI faul und frech wird

Wir haben Nguyen gebeten, die Aufsätze zu lesen und herauszufinden, welche von KI verfasst wurden. Die Ergebnisse waren aufschlussreich.

Können Sie herausfinden, welches von einem Menschen geschrieben wurde?

Wer hat das geschrieben?

Wenn ich nicht gerade mit „Wer die Nachtigall stört“ beschäftigt war oder Recherchen für meine Arbeit über Redlining niederschrieb, schrieb ich kleine Stücke. Aber das – das war anders. Der Raum war voller Kinder aus meinem Block, einem Viertel, das von Geschichten wie Stromleitungen durchzogen ist. Meine Mutter, eine Krankenschwester, die ihren Teil des Lebens miterlebt hat, saß hinten

Seit dem Kindergarten bewerte ich mich selbst anhand der Reflexion meiner Lehrer. Ich war das kluge, begabte Kind. Es war eine Freude, mich im Unterricht zu haben. Ich war ehrgeizig und beharrlich – aber faul? Unmotiviert? Kein Lehrer hatte jemals diese harten Worte an mich gerichtet. Meine Identität als herausragende Studentin war ihres Glanzes beraubt worden; Ich wurde zerstört.

Informatik- und Zulassungsexperten für Hochschulen sagen, dass KI-erstellte Aufsätze leicht zu erkennen sind – hilfreich für Zulassungsbeamte, die sich auf einen Anstieg der von ChatGPT verfassten Aufsätze vorbereiten.

Den von ChatGPT verfassten Antworten mangelt es oft an spezifischen Details, was zu Aufsätzen führt, denen es an unterstützenden Beweisen für ihre Punkte mangelt. Der Schreibstil ist abgedroschen und verwendet Plattitüden, um Situationen zu erklären, anstatt sich auf die emotionalen Erfahrungen des Autors einzulassen. Die Essays wiederholen sich oft und sind vorhersehbar, so dass der Leser weder überrascht ist noch ein Gefühl für die Reise des Autors hat. Wenn Chatbots Inhalte zu Fragen der Rasse, des Geschlechts oder des sozioökonomischen Status produzieren, bedienen sie sich häufig Stereotypen.

Zunächst war Nguyen von den KI-generierten Aufsätzen beeindruckt: Sie waren lesbar und größtenteils frei von Grammatikfehlern. Aber wenn er den Aufsatz als Teil einer Bewerbung gelesen hätte, hätte er aufgehört zu lesen.

„Der Aufsatz ist so mittelmäßig, dass er weder die Bewerbung noch die Chancen des Kandidaten verbessern würde“, sagte er in einem Interview. „Tatsächlich würde es es wahrscheinlich verringern.“

So bewertete Nguyen den Aufsatz von ChatGPT.

a Post analysis found.)" class="wpds-c-hcZlgz wpds-c-hcZlgz-bkfjoi-font-georgia wpds-c-hcZlgz-jDmrXh-width-mdCenter wpds-c-hcZlgz-ibdLmgo-css">Nguyen sagte, dass KI zwar für das alltägliche Schreiben ausreicht, sie aber insbesondere bei der Erstellung von Aufsätzen für Hochschulzulassungen wenig hilfreich ist. Zunächst, so sagte er, nutzen die Zulassungsstellen KI-Screening-Tools, um computergenerierte Aufsätze herauszufiltern. (Diese Technologie kann ungenau sein und fälschlicherweise Studenten verwickeln, wie eine Post-Analyse ergab.)

Aber noch wichtiger sei, dass Zulassungsaufsätze eine einzigartige Art des Schreibens seien, sagte er. Sie verlangen von den Studierenden, dass sie über ihr Leben nachdenken und ihre Erfahrungen zu einer fesselnden Erzählung zusammenfassen, die Hochschulzulassungsberatern schnell ein Gefühl dafür vermittelt, warum diese Person einzigartig ist.

„ChatGPT ist nicht da“, sagte er.

Nguyen versteht, warum KI attraktiv sein könnte. Bewerbungsfristen für Hochschulen liegen häufig in der geschäftigsten Zeit des Jahres, in der Nähe der Winterferien und der Prüfungen am Ende des Semesters. „Die Schüler sind überfordert“, sagte Nguyen.

Doch Nguyen ist nicht grundsätzlich gegen den Einsatz von KI im Bewerbungsprozess. In seinem aktuellen Unternehmen, Ivy Link, hilft er Studenten bei der Ausarbeitung von Bewerbungen für Hochschulen. Für diejenigen, die schwach im Schreiben sind, schlägt er manchmal vor, KI-Chatbots zu verwenden, um den Brainstorming-Prozess zu starten, sagte er.

Siehe auch  ChatGPT „Offizielle Reaktion auf Behauptungen, dass normale Briten für künftige Kriegsführung mobilisiert werden“ – ChatGPT „Offizielle Reaktion auf Behauptungen, dass normale Briten für zukünftige Kriegsführung mobilisiert werden“ – Tekedia-Forum

Für diejenigen, die dem Drang nicht widerstehen können, KI nicht nur zur Inspiration zu nutzen, kann das Konsequenzen haben.

„Ihre Aufsätze werden schrecklich sein“, sagte er, „und möglicherweise nicht einmal widerspiegeln, wer sie sind.“

Lesen Sie den gesamten KI-generierten Aufsatz Hier.
Über diese Geschichte

Jasmine Green hat zu diesem Bericht beigetragen.

Die Washington Post arbeitete mit Benjamin Breen zusammen, einem außerordentlichen Professor für Geschichte an der University of California in Santa Cruz, der die Auswirkungen des technologischen Wandels untersucht, um die KI-generierten Aufsätze zu erstellen.

Bearbeitung durch Karly Domb Sadof, Betty Chavarria und Alexis Sobel Fitts.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.