Generative künstliche Intelligenzen sind zu Tausenden von Dingen fähig, von den nützlichsten im Hinblick auf die Produktivität bis hin zu den schädlichsten. Cyberkriminelle haben alle Vorteile erkannt, die sie aus dieser neuen Technologie ziehen können. Wir hören immer häufiger von immer ausgefeilteren Phishing-Kampagnen, die dank dieser neuen Klasse von Tools erstellt werden.

Roboter-Laptop
Bildnachweis: 123Rf

Heute ist es zum Beispiel so WurmGPT wer spricht über ihn. Dieser Chatbot für Hacker ist auf Hackerseiten kostenlos verfügbar. Seine Entwickler behaupten, dass es die Erstellung von „E-Mail-Kompromittierungsangriffen“ erleichtert. Mit anderen Worten, Damit können Sie personalisierte E-Mail-Kampagnen erstellen Sehr überzeugend für Mitarbeiter kommerzieller, staatlicher oder gemeinnütziger Organisationen.

Page-Wormgpt

Wie der Name schon sagt, ist WormGPT eine Alternative zu Mainstream-KIs wie Bard und chatgpt. Wie sie nutzt die Malware ein besitzergreifendes Sprachmodell. Sein Erfinder geht sogar so weit, WormGPT als „den größten Feind des berühmten ChatGPT“ zu bezeichnen […] Damit kann man alle möglichen illegalen Dinge tun.“ Wie wir sehen können, WormGPT funktioniert ohne ethische Grenzenanders als beispielsweise ChatGPT.

WormGPT ist ein Massen-Phishing-Tool, das mithilfe von KI erstellt wurde

Obwohl WormGPT als spezialisierte Malware „vermarktet“ wird, sind auch gängigere KI-gestützte Tools in der Lage, ebenso großen Schaden anzurichten. Dies ist der Fall bei Bard, dem google-Chatbot, der jetzt in Frankreich verfügbar ist. Check Point Research hat herausgefunden, dass Hacker die KI von Mountain View nutzen, um schädliche Inhalte zu erstellen. Nach Ansicht der Forscher sind die ethischen Zwänge, die von den Entwicklern gestellt werden Bard sind viel einfacher zu missbrauchen als die von ChatGPT.

Beispiel-Wormgpt
Bildnachweis: Hacker News

Darüber hinaus haben Forscher von Mithril Security dies bewiesenEs ist möglich, ein großes Sprachmodell zu „korrumpieren“. durch Modifizierung eines Open-Source-LLM namens GPT-J-6B. Nach einer Modifikation spezialisierte sich die auf Desinformation. Seine Entwickler haben es in einem öffentlichen Repository verfügbar gemacht, sodass Internetnutzer es in andere Anwendungen integrieren und die LLM-Lieferkette vergiften können: eine Technik namens PoisonGPT.

Siehe auch  Alles, was wir bisher über die nächste Chat-GPT-Veröffentlichung von OpenAI wissen

Quelle : Hacker-News

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein