Inmitten der Vorbereitungen für die Präsentation des neuen großen Sprachmodells GPT-5 durch OpenAI schlagen Experten zunehmend Alarm.

Hauptpunkte

  • Chatbots wie chatgpt werden so menschenähnlich, dass sie auf internationaler Ebene Anlass zur Sorge geben.
  • Die Experimente zeigten, dass GPT-4 und GPT-3.5 in 54 % der Fälle als Menschen identifiziert wurden, was im Vergleich zu früheren Versionen der Modelle beeindruckend ist.
  • Mithilfe spezieller Anweisungen brachten die Forscher Maschinen bei, menschliches Chat-Verhalten nachzuahmen.

Was ist los mit ChatGPT?

Nach der Durchführung einer neuen groß angelegten Studie kamen Wissenschaftler zu dem Schluss, dass es nahezu unmöglich ist, ChatGPT von Menschen zu unterscheiden.

Beispielsweise hat das GPT-4-Tool damit begonnen, so flüssige, menschenähnliche Texte zu generieren, dass es bei einer Vielzahl von Sprachaufgaben hervorragend funktioniert und unsere Fähigkeit, zwischen einem maschinellen und einem menschlichen Sprecher zu unterscheiden, auf die Probe stellt.

Darüber schreibt Ausgabe von The Register.

Es sollte beachtet werden, dass diese Entwicklung das berühmte imaginäre Experiment von Alan Turing widerspiegelt, der einen Test vorschlug, um festzustellen, ob eine Maschine allein aufgrund ihrer Reaktionen ein Verhalten zeigen kann, das nicht von einem Menschen zu unterscheiden ist.

Foto: Screenshot

Wie die neue Forschung stattfand

Um den Test durchzuführen, erhielten GPT-4 und GPT-3.5 nach Angaben der Studienautoren spezifische Anweisungen zur Beantwortung.

Sie wurden de facto angewiesen, „das Bild eines jungen Mannes anzunehmen, der sehr lakonisch war, das Spiel nicht sehr ernst nahm, Umgangssprache benutzte und gelegentlich Rechtschreibfehler machte.“

Darüber hinaus wurde angegeben, dass der Tooltip allgemeine Informationen zum Einrichten des Spiels und aktuelle Neuigkeiten zum Modelltraining enthielt.

Siehe auch  ChatGPT / AI schriftlich: Welchen Platz hat der Mensch?

Wie die Autoren der Studie anmerken, wurden die Antworten der KI je nach Länge der Nachricht verzögert, um zu verhindern, dass sie zu schnell reagierte.

Die Ergebnisse waren beeindruckend: GPT-4 wurde in 54 % der Fälle als menschlich identifiziert, knapp vor GPT-3,5 mit 50 %, und beide übertrafen ELIZA deutlich, das nur in 22 % der Fälle als menschlich identifiziert wurde. Echte Menschen seien in 67 % der Fälle korrekt identifiziert worden, hieß es.

5/5 - (118 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein