OpenAIs neueste Version von chatgpt, GPT-4, war fast doppelt so überzeugend wie echte Menschen, wenn sie Zugriff auf persönliche Informationen erhielten, wie eine neue Studie ergab.

Forscher der Eidgenössischen Technischen Hochschule Lausanne (EPFL) testeten 820 Personen, indem sie sie einer Reihe von Debatten zu verschiedenen Themen gegeneinander und/oder KI-Chatbots unterzogen, wobei einige KI-Großsprachmodelle (LLMs) persönliche Informationen erhielten, und einige ohne.

Das Ergebnis war, dass GPT-4, wenn ihm persönliche Informationen zur Verfügung gestellt wurden, um 81,7 Prozent überzeugender war als jeder andere Mensch.

„Unsere Ergebnisse zeigen, dass LLMs im Durchschnitt menschliche Teilnehmer in allen Themen und Bevölkerungsgruppen deutlich übertreffen und ein hohes Maß an Überzeugungskraft aufweisen“, heißt es in der Studie.

„Insbesondere die Auseinandersetzung mit GPT-4 mit Personalisierung führt zu einer Steigerung von 81,7 Prozent.“

Die Studie fügte hinzu, dass GPT-4, auch wenn ihm keine personenbezogenen Daten zur Verfügung gestellt wurden, die Überzeugungskraft von Menschen immer noch übertraf, „allerdings in einem geringeren Ausmaß“ von 21,3 Prozent, und fügte hinzu, dass „der Effekt statistisch nicht signifikant ist“.

Wenn außerdem die „Personalisierung“ für menschliche Teilnehmer aktiviert wurde, waren diese tatsächlich weniger überzeugend, allerdings in einem statistisch vernachlässigbaren Ausmaß.

Die Ergebnisse sind aus mehreren Gründen alarmierend, vor allem wegen der Gefahr, dass KI für böswillige Zwecke eingesetzt wird.

Es ist bereits gut dokumentiert, dass KI Betrügern und Cyberkriminellen effektiv helfen kann, indem sie beim Schreiben von Code, beim Erstellen von Phishing-E-Mails und -Nachrichten und vielem mehr eingesetzt wird.

Mittlerweile übertreffen diese Tools jedoch die Überzeugungskraft des Menschen und machen den Einsatz von KI zur Erstellung von Phishing-Betrügereien und zur Anlockung von Opfern viel gefährlicher und effektiver.

Siehe auch  Citywire-Auswahl | AI Rising: Kann ChatGPT das Investieren revolutionieren?

Darüber hinaus könnten Bedrohungsakteure diese LLMs für Massendesinformation bei Wahlen oder anderen schwerwiegenden Ereignissen nutzen, um die öffentliche Meinung zu beeinflussen.

„Böswillige Akteure, die daran interessiert sind, Chatbots für groß angelegte Desinformationskampagnen einzusetzen, könnten noch stärkere Effekte erzielen, indem sie feinkörnige digitale Spuren und Verhaltensdaten ausnutzen, Prompt Engineering nutzen oder Sprachmodelle für ihre spezifischen Anwendungsbereiche verfeinern“, so die Forscher.

„Wir argumentieren, dass Online-Plattformen und soziale Medien solche Bedrohungen ernsthaft in Betracht ziehen und ihre Bemühungen zur Umsetzung von Maßnahmen verstärken sollten, um der Verbreitung von LLM-gesteuerter Überzeugung entgegenzuwirken.“

Trotz der erhöhten Überzeugungskraft der LLMs ergab die Studie auch, dass die Teilnehmer die meiste Zeit, etwa 75 Prozent der Zeit, erkannten, wann sie mit einer KI sprachen, was bedeutet, dass KI immer noch spezifische Merkmale aufweist, die sich von Menschen unterscheiden, was die Wirksamkeit dieser Tools beeinträchtigt für bösartige Tools, vorerst.

Allerdings schreitet die KI weiterhin rasant voran und erhebliche Investitionen führen dazu, dass die Technologie immer leistungsfähiger wird und die Identifizierung von KI-generierten Inhalten immer schwieriger wird.

5/5 - (231 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein