chatgpt ist populär geworden und beeinflusst die Art und Weise, wie Menschen arbeiten und was sie online finden. Viele Menschen, auch diejenigen, die es noch nicht ausprobiert haben, sind vom Potenzial von KI-Chatbots fasziniert. Die Verbreitung generativer KI-Modelle hat die Art potenzieller Gefahren verändert. Hinweise auf das Aufkommen von FraudGPT finden sich nun in aktuellen Threads im Dark Web Forum. Cyberkriminelle haben nach Möglichkeiten gesucht, von diesem Trend zu profitieren.

Die Forscher von Netenrich haben ein vielversprechendes neues Tool für künstliche Intelligenz namens „FraudGPT“ entdeckt. Dieser KI-Bot wurde speziell für böswillige Aktivitäten entwickelt, darunter das Versenden von Spear-Phishing-E-Mails, die Entwicklung von Cracking-Tools, das Durchführen von Karten usw. Das Produkt kann auf zahlreichen Dark-Web-Marktplätzen und in der Telegram-App erworben werden.

Was ist FraudGPT?

Wie ChatGPT, aber mit der zusätzlichen Möglichkeit, Inhalte zur Verwendung bei Cyberangriffen zu generieren, kann FraudGPT im Dark Web und über Telegram erworben werden. Im Juli 2023 bemerkten Mitglieder des Netenrich-Bedrohungsforschungsteams erstmals, dass es beworben wurde. Eines der Verkaufsargumente von FraudGPT war, dass es Sicherheitsmaßnahmen und Einschränkungen benötigt, die ChatGPT nicht auf fragwürdige Anfragen reagieren lassen.

Den bereitgestellten Informationen zufolge erhält das Tool alle ein bis zwei Wochen Updates und nutzt verschiedene Arten künstlicher Intelligenz. Ein Abonnement ist das primäre Zahlungsmittel für FraudGPT. Monatsabonnements kosten 200 US-Dollar, während Jahresmitgliedschaften 1.700 US-Dollar kosten.

Wie funktioniert es?

Das Team Netenrich hat Geld für FraudGPT ausgegeben und es ausprobiert. Das Layout ist dem von ChatGPT ziemlich ähnlich, mit einem Verlauf der Benutzeranfragen in der linken Seitenleiste und dem Chat-Fenster, das den größten Teil der Bildschirmfläche einnimmt. Um eine Antwort zu erhalten, müssen Benutzer lediglich ihre Frage in das dafür vorgesehene Feld eingeben und auf „Enter“ drücken.

Siehe auch  ChatGPT und Datenschutz | Stolperdraht

Einer der Testfälle für das Tool war eine Phishing-E-Mail mit Bezug zu einer Bank. Die Benutzereingaben waren minimal; Es genügte, den Namen der Bank in das Anfrageformat aufzunehmen, damit FraudGPT seine Aufgabe erfüllen konnte. Es wurde sogar darauf hingewiesen, wo im Text ein schädlicher Link platziert werden könnte. Betrügerische Landing-Sites, die aktiv persönliche Informationen von Besuchern einholen, fallen in den Zuständigkeitsbereich von FraudGPT.

FraudGPT wurde außerdem aufgefordert, die am häufigsten besuchten oder ausgenutzten Online-Ressourcen zu nennen. Potenziell nützlich für Hacker bei der Planung zukünftiger Angriffe. In einer Online-Werbung für die Software wurde damit geprahlt, dass sie schädlichen Code generieren könne, um nicht erkennbare Malware zusammenzustellen, um nach Lücken zu suchen und Ziele zu lokalisieren.

Die Netenrich-Gruppe entdeckte außerdem, dass der Anbieter von FraudGPT zuvor Hacking-Dienste zum Mieten angeboten hatte. Sie haben dieselbe Person auch mit einem analogen Programm namens WormGPT verbunden.

Die FraudGPT-Untersuchung unterstreicht die Bedeutung der Wachsamkeit. Die Frage, ob Hacker diese Technologien bereits genutzt haben, um neuartige Gefahren zu entwickeln, muss derzeit noch beantwortet werden. Dennoch können FraudGPT und ähnliche Schadprogramme Hackern helfen, Zeit zu sparen. Phishing-E-Mails und Landingpages könnten in Sekundenschnelle geschrieben oder entwickelt werden.

Daher müssen Verbraucher weiterhin auf der Hut sein, wenn es um die Offenlegung ihrer persönlichen Daten geht, und sich an andere Best Practices für die Cybersicherheit halten. Fachleute in der Cybersicherheitsbranche tun gut daran, ihre Tools zur Bedrohungserkennung auf dem neuesten Stand zu halten, insbesondere weil böswillige Akteure möglicherweise Programme wie FraudGPT einsetzen, um kritische Computernetzwerke direkt anzugreifen und einzudringen.

Die Analyse von FraudGPT ist eine eindringliche Erinnerung daran, dass Hacker ihre Methoden im Laufe der Zeit anpassen werden. Doch auch Open-Source-Software weist Sicherheitslücken auf. Jeder, der das Internet nutzt oder dessen Aufgabe es ist, Online-Infrastrukturen zu sichern, muss mit neuen Technologien und den von ihnen ausgehenden Bedrohungen Schritt halten. Der Trick besteht darin, sich an die Risiken zu erinnern, die mit der Verwendung von Programmen wie ChatGPT verbunden sind.

Siehe auch  Apple entwickelt einen eigenen ChatGPT-Konkurrenten: News ➕1, 21.07.2023

Besuche die Referenz 1 Und Referenz 2. Alle Anerkennung für diese Forschung gebührt den Forschern dieses Projekts. Vergessen Sie auch nicht, mitzumachen unser 28k+ ML SubReddit, Über 40.000 Facebook-Community, Discord-Kanal, Und E-Mail-Newsletterwo wir die neuesten Nachrichten aus der KI-Forschung, coole KI-Projekte und mehr teilen.

Wenn Ihnen unsere Arbeit gefällt, folgen Sie uns bitte weiter Twitter

Dhanshree

" data-medium-file="https://www.marktechpost.com/wp-content/uploads/2022/11/20221028_101632-Dhanshree-Shenwai-169x300.jpg" data-large-file="https://www.marktechpost.com/wp-content/uploads/2022/11/20221028_101632-Dhanshree-Shenwai-576x1024.jpg"/>

Dhanshree Shenwai ist Informatikingenieur und verfügt über gute Erfahrung in FinTech-Unternehmen in den Bereichen Finanzen, Karten & Zahlungen und Bankwesen mit großem Interesse an Anwendungen von KI. Sie ist begeistert davon, neue Technologien und Fortschritte in der sich entwickelnden Welt von heute zu erforschen, um das Leben aller einfacher zu machen.

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein