Mit dem Aufkommen von chatgpt haben sich viele Möglichkeiten eröffnet, die Arbeit in verschiedenen Bereichen zu vereinfachen. Programmierer können Code schneller schreiben, Journalisten können Inhalte erstellen, Designer können Zeichnungen erstellen. Allerdings gab es auch negative Folgen. Insbesondere die Verstopfung sozialer Medien mit Spam-Bots und durch künstliche Intelligenz erstellten Inhalten führt zu einer starken Verschlechterung der Informationsqualität im Internet.

Eine neue Studie, die letzten Monat von Forschern des Indiana University Social Media Observatory veröffentlicht wurde, beschreibt detailliert, wie Angreifer die Leistungsfähigkeit des ChatGPT-Chatbots von OpenAI ausnutzen. Eine Studie von Kai-Cheng Yang, einem Forscher für computergestützte Sozialwissenschaften, und Filippo Menzer, einem Professor für Informatik, ergab, dass die Fähigkeit von ChatGPT, maßgeblich aussehenden Text zu generieren, genutzt wird, um „KI-Bots“ auf X, ehemals Twitter, zu starten.

KI-Bot-Netzwerke sind Netzwerke aus Hunderten bösartiger Bots und Spam-Social-Media-Kampagnen, die von aktuellen Anti-Spam-Filtern unbemerkt bleiben können. Sie werden für viele Zwecke verwendet, beispielsweise zur Förderung von Kryptowährungs- und NFT-Betrug. Bot-Konten versuchen, Menschen davon zu überzeugen, in gefälschte Kryptowährungen zu investieren, und stehlen möglicherweise sogar von ihren vorhandenen Krypto-Wallets.

Das von Young und Mentzer auf X entdeckte Netzwerk hatte über 1.000 aktive Bots. Die Bots folgten einander und antworteten auf die Beiträge des anderen mit ChatGPT-Ergebnissen, wobei sie häufig Selfies posteten, die aus menschlichen Profilen gestohlen wurden, um gefälschte Personas zu erstellen.

Der Aufstieg der sozialen Medien habe Angreifern eine kostengünstige Möglichkeit geboten, ein großes Publikum zu erreichen und mit falschen oder irreführenden Inhalten Geld zu verdienen, sagte Mentzer. Neue KI-Tools „reduzieren die Kosten für die Generierung falscher, aber authentisch aussehender Inhalte in großem Maßstab weiter und untergraben den Moderationsschutz von Social-Media-Plattformen“, sagte er.

Siehe auch  China hat ein Analogon von ChatGPT eingeführt – Panorama

In den letzten Jahren wurden Social-Media-Bots – Konten, die ganz oder teilweise von Software verwaltet werden – regelmäßig eingesetzt, um Desinformation über Ereignisse von Wahlen bis hin zu öffentlichen Krisen wie COVID zu verstärken. Solche Bots könnten aufgrund ihres Roboterverhaltens und der sich nicht überschneidenden Fake-Personas leicht identifiziert werden. Generative Tools für künstliche Intelligenz wie ChatGPT erstellen jedoch in Sekundenschnelle humanoide Texte und Medien.

Solche KI-Bots im Netzwerk posteten die Forscher vor allem über betrügerische Kryptowährungs- und NFT-Kampagnen und bewarben verdächtige Websites zu ähnlichen Themen, vermutlich auch mit ChatGPT geschrieben, heißt es in der Studie.

Zusätzlich zu den sozialen Medien haben Tools wie ChatGPT viele spammige generische Nachrichten-Websites hervorgebracht, von denen viele völlige Fälschungen veröffentlichen. NewsGuard, ein privates Unternehmen, das die Vertrauenswürdigkeit von Nachrichten- und Informationswebsites bewertet, hat bereits mehr als 400 KI-gestützte Portale identifiziert.

Diese Websites generieren Werbeeinnahmen durch automatisierte Werbetechnologie, die Werbeflächen auf Websites unabhängig von deren Qualität oder Art kauft.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein