OpenAIs neueste Version von chatgpt, GPT-4, war fast doppelt so überzeugend wie echte Menschen, wenn sie Zugriff auf persönliche Informationen erhielten, wie eine neue Studie ergab.
Forscher der Eidgenössischen Technischen Hochschule Lausanne (EPFL) testeten 820 Personen, indem sie sie einer Reihe von Debatten zu verschiedenen Themen gegeneinander und/oder KI-Chatbots unterzogen, wobei einige KI-Großsprachmodelle (LLMs) persönliche Informationen erhielten, und einige ohne.
Das Ergebnis war, dass GPT-4, wenn ihm persönliche Informationen zur Verfügung gestellt wurden, um 81,7 Prozent überzeugender war als jeder andere Mensch.
„Unsere Ergebnisse zeigen, dass LLMs im Durchschnitt menschliche Teilnehmer in allen Themen und Bevölkerungsgruppen deutlich übertreffen und ein hohes Maß an Überzeugungskraft aufweisen“, heißt es in der Studie.
„Insbesondere die Auseinandersetzung mit GPT-4 mit Personalisierung führt zu einer Steigerung von 81,7 Prozent.“
Die Studie fügte hinzu, dass GPT-4, auch wenn ihm keine personenbezogenen Daten zur Verfügung gestellt wurden, die Überzeugungskraft von Menschen immer noch übertraf, „allerdings in einem geringeren Ausmaß“ von 21,3 Prozent, und fügte hinzu, dass „der Effekt statistisch nicht signifikant ist“.
Wenn außerdem die „Personalisierung“ für menschliche Teilnehmer aktiviert wurde, waren diese tatsächlich weniger überzeugend, allerdings in einem statistisch vernachlässigbaren Ausmaß.
Die Ergebnisse sind aus mehreren Gründen alarmierend, vor allem wegen der Gefahr, dass KI für böswillige Zwecke eingesetzt wird.
Es ist bereits gut dokumentiert, dass KI Betrügern und Cyberkriminellen effektiv helfen kann, indem sie beim Schreiben von Code, beim Erstellen von Phishing-E-Mails und -Nachrichten und vielem mehr eingesetzt wird.
Mittlerweile übertreffen diese Tools jedoch die Überzeugungskraft des Menschen und machen den Einsatz von KI zur Erstellung von Phishing-Betrügereien und zur Anlockung von Opfern viel gefährlicher und effektiver.
Darüber hinaus könnten Bedrohungsakteure diese LLMs für Massendesinformation bei Wahlen oder anderen schwerwiegenden Ereignissen nutzen, um die öffentliche Meinung zu beeinflussen.
„Böswillige Akteure, die daran interessiert sind, Chatbots für groß angelegte Desinformationskampagnen einzusetzen, könnten noch stärkere Effekte erzielen, indem sie feinkörnige digitale Spuren und Verhaltensdaten ausnutzen, Prompt Engineering nutzen oder Sprachmodelle für ihre spezifischen Anwendungsbereiche verfeinern“, so die Forscher.
„Wir argumentieren, dass Online-Plattformen und soziale Medien solche Bedrohungen ernsthaft in Betracht ziehen und ihre Bemühungen zur Umsetzung von Maßnahmen verstärken sollten, um der Verbreitung von LLM-gesteuerter Überzeugung entgegenzuwirken.“
Trotz der erhöhten Überzeugungskraft der LLMs ergab die Studie auch, dass die Teilnehmer die meiste Zeit, etwa 75 Prozent der Zeit, erkannten, wann sie mit einer KI sprachen, was bedeutet, dass KI immer noch spezifische Merkmale aufweist, die sich von Menschen unterscheiden, was die Wirksamkeit dieser Tools beeinträchtigt für bösartige Tools, vorerst.
Allerdings schreitet die KI weiterhin rasant voran und erhebliche Investitionen führen dazu, dass die Technologie immer leistungsfähiger wird und die Identifizierung von KI-generierten Inhalten immer schwieriger wird.