Die Forscher, die das Botnetz entdeckt haben, sagen, dass sie sich nicht die Mühe machen, X zu benachrichtigen, weil das Unternehmen nicht mehr reagiert.
X, die Social-Media-Plattform von Elon Musk, früher bekannt als Twitter, hat ein großes Problem mit Fake-Accounts. Die Verbreitung von Bots im sozialen Netzwerk wurde von Musk selbst eingeräumt, da er sie als Hauptgrund nannte, warum er zunächst versuchte, von der Übernahme des Unternehmens zurückzutreten.
Und eine neue Studie des Social Media Observatory an der Indiana University, Bloomington, zeichnet ein gutes Bild eines solchen Botnetzes, das auf Wired, das zuerst über die Forschung berichtete.
Forscher haben im vergangenen Mai ein Netzwerk von mindestens 1.140 gefälschten Twitter-Konten aufgedeckt, die ständig Tweets veröffentlichten, die auf eine Reihe unbenannter Spam-Online-„Nachrichten“-Websites verlinkten, die nur Inhaltsausschnitte legitimer Dots-Verkäufe weiterveröffentlichten.
Die überwiegende Mehrheit der Beiträge dieses Netzwerks von Bot-Konten bezog sich auf Kryptowährungen und enthielt oft Hashtags wie #bitcoin, #crypto und #web3. Die Konten haben auch häufig retweetet oder beliebten Krypto-Benutzern auf Twitter geantwortet, wie z. B. @WatcherGuru, @crypto und @ForbesCrypto.
Wie konnte ein Botnetz mit über tausend Konten so viel posten? Es nutzte KI, in diesem Fall speziell chatgpt, um genau zu automatisieren, was gepostet wurde. Der Zweck dieser KI-generierten Nachrichten schien darin zu bestehen, Twitter mit möglichst vielen Verschlüsselungslinks zuzuspammen, um so vielen legitimen Benutzern wie möglich angezeigt zu werden, in der Hoffnung, dass diese auf die URLs klicken würden.
Laut Wired wurden X-Konten schließlich von X gesperrt, nachdem die Untersuchung im Juli veröffentlicht wurde. Menczer sagt, seine Forschungsgruppe habe Twitter zuvor über diese Botnetze informiert, dies aber nach der Übernahme von Musk eingestellt, weil sie festgestellt hätten, dass das Unternehmen „nicht mehr wirklich reaktionsfähig“ sei.
Während KI-Tools wie ChatGPT dem Botnet-Besitzer dabei halfen, Inhalte für Tausende von Konten bereitzustellen, bedeutete dies letztendlich auch seinen Untergang.
Laut der veröffentlichten Studie stellten die Forscher bei diesen Konten einen möglichen Trend fest: Sie posteten Tweets, die mit der Phrase „als KI-Sprachmodell“ begannen. ChatGPT-Benutzer werden mit diesem Ausdruck vertraut sein, da der KI-Helfer ihn häufig als Ergänzung zu jeder von ihm bereitgestellten Ausgabe bereitstellt und entscheidet, dass potenzielle Probleme auftreten könnten, da es sich lediglich um ein KI-Sprachmodell handelt.
Die Forscher wiesen darauf hin, dass das Botnetz ohne diesen „schlampigen“ Fehler möglicherweise unentdeckt geblieben wäre.