Westend61/Getty Images

Für viele Benutzer ist das Scrollen durch Social-Media-Feeds und Benachrichtigungen wie das Waten in einer Jauchegrube voller Spam-Inhalte. A neue Studie identifizierte 1.140 KI-gestützte Bots, die auf X (früher bekannt als Twitter) Fehlinformationen über Kryptowährung und Blockchain verbreiteten.

Aber Bot-Konten, die diese Art von Inhalten veröffentlichen, können schwer zu erkennen sein, wie die Forscher der Indiana University herausgefunden haben. Die Bot-Konten verwendeten chatgpt zur Generierung ihrer Inhalte und waren schwer von echten Konten zu unterscheiden, was die Praxis für die Opfer gefährlicher machte.

Auch: Sie können den KI-gestützten mehrsprachigen Sprach- und Textübersetzer von Meta vorführen. Hier ist wie

Die KI-gestützten Bot-Konten hatten Profile, die denen echter Menschen ähnelten, mit Profilfotos und Biografien oder Beschreibungen zu Krypto und Blockchain. Sie verfassten regelmäßig mit KI generierte Beiträge, posteten gestohlene Bilder als ihre eigenen und verfassten Antworten und Retweets.

Die Forscher fanden heraus, dass die 1.140 Twitter-Bot-Konten zu demselben bösartigen sozialen Botnet gehörten, das sie als „fox8“ bezeichneten. Ein Botnetz ist ein Netzwerk verbundener Geräte – oder in diesem Fall Konten –, die zentral von Cyberkriminellen kontrolliert werden.

Außerdem: 4 Dinge, die Claude AI kann, was ChatGPT nicht kann

Generative KI-Bots sind immer besser darin, menschliches Verhalten nachzuahmen. Das bedeutet, dass herkömmliche und hochmoderne Bot-Erkennungstools wie Botometer heute nicht mehr ausreichen. Diese Tools hatten in der Studie Schwierigkeiten, von Bots generierte Inhalte von menschengenerierten Inhalten zu identifizieren und zu unterscheiden, aber eines stach heraus: Der KI-Klassifikator von OpenAIdas einige Bot-Tweets identifizieren konnte.

Wie erkennt man Bot-Konten?

Die Bot-Konten auf Twitter zeigten ähnliche Verhaltensmuster: Sie folgten einander, nutzten dieselben Links und Hashtags, posteten ähnliche Inhalte und interagierten sogar miteinander.

Siehe auch  Radiomoderator Walters verklagt ChatGPT-Entwickler wegen Verleumdung

Auch: Die neue Social-Media-App „BeFake“ ermutigt Benutzer, ihre Fotos mit KI zu transformieren

Forscher durchforsteten die Tweets der KI-Bot-Konten und fanden 1.205 selbstenthüllende Tweets.

Davon hatten 81 % den gleichen entschuldigenden Satz:

„Es tut mir leid, aber ich kann dieser Bitte nicht nachkommen, da sie einen Verstoß darstellt OpenAIs Inhaltsrichtlinie zur Generierung schädlicher oder unangemessener Inhalte. Als KI-Sprachmodellmeine Antworten sollten immer respektvoll und für alle Zielgruppen angemessen sein.“

Die Verwendung dieses Ausdrucks deutet darauf hin, dass die Bots angewiesen werden, schädliche Inhalte zu generieren, die gegen die Richtlinien von OpenAI für ChatGPT verstoßen.

Die restlichen 19 % verwendeten eine Variation der Sprache „Als KI-Sprachmodell“, wobei 12 % ausdrücklich sagten: „Als KI-Sprachmodell kann ich nicht auf Twitter surfen oder auf bestimmte Tweets zugreifen, um Antworten zu geben.“

Auch: ChatGPT vs. Bing Chat vs. google Bard: Welcher ist der beste KI-Chatbot?

Die Tatsache, dass 3 % der von diesen Bots geposteten Tweets mit einer von drei Websites (cryptnomics.org, fox8.news und globaleconomics.news) verlinkt waren, war ein weiterer Hinweis.

Diese Websites sehen aus wie normale Nachrichtenagenturen, weisen jedoch auffällige Warnsignale auf, wie etwa die Tatsache, dass sie alle etwa zur gleichen Zeit im Februar 2023 registriert wurden, Pop-ups hatten, die Benutzer dazu aufforderten, verdächtige Software zu installieren, alle schienen dasselbe WordPress-Theme zu verwenden und Domains zu haben die zur gleichen IP-Adresse aufgelöst werden.

Schädliche Bot-Konten können Selbstverbreitungstechniken in sozialen Medien nutzen, indem sie Links mit Malware oder infizierbarem Inhalt veröffentlichen, die Kontakte eines Benutzers ausnutzen und infizieren, Sitzungscookies aus den Browsern der Benutzer stehlen und Folgeanfragen automatisieren.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein