Viele Menschen befürchten, dass generative KI-Chatbots wie chatgpt in Zukunft zur Erstellung von Schadsoftware (Malware) verwendet werden könnten. Derzeit ist die größte Sorge die Popularität von ChatGPT: Immer mehr Hacker starten Spoofing-Angriffe und verwenden ChatGPT-Anwendungen, um Informationen von ahnungslosen Opfern zu stehlen.

Mittwoch, 3. Mai, Metasucher, die Muttergesellschaft von Facebook, hat davor gewarnt, dass sich böswillige Gruppen wie Ducktail und NodeStealer jetzt als ChatGPT und andere ähnliche Tools ausgeben, wo sie Internetnutzer über bösartige Browsererweiterungen, Anzeigen und sogar von verschiedenen Social-Media-Plattformen angreifen. Ihr Ziel ist es, nicht autorisierte Werbung von kompromittierten Geschäftskonten über das Internet zu liefern.

Meta sagte, es habe diese Malware-Operationen erkannt und gestört, einschließlich zuvor nicht gemeldeter Malware-Familien. Darüber hinaus hat die Muttergesellschaft von Facebook eine schnelle Anpassung der Hacker als Reaktion auf diese Entdeckung erlebt.

„Wir wissen, dass die böswilligen Gruppen hinter den Malware-Kampagnen äußerst hartnäckig sind, und wir erwarten, dass sie weiterhin versuchen werden, neue Taktiken und Tools zu entwickeln, um zu versuchen, Störungen auf jeder Plattform, auf der sie sich ausbreiten, zu überleben. Aus diesem Grund bekämpfen unsere Sicherheitsteams Malware, eine der hartnäckigsten Online-Bedrohungen, als Teil unseres tiefgehenden Verteidigungsansatzes, mehrere Anstrengungen gleichzeitig. Duc H. Nguyen et Ryan Siegvon Meta, in einem am Mittwoch veröffentlichten Blogbeitrag.

Mehrere Malware-Gruppen

Seit März hat Meta ein Dutzend Malware-Familien identifiziert, die ChatGPT und andere ähnliche Tools verwenden, um Internetkonten zu kompromittieren.

„In einem Fall sahen wir, dass bösartige Browsererweiterungen in offiziellen Online-Shops verfügbar gemacht wurden, die vorgaben, ChatGPT-basierte Tools anzubieten“, fügten Duc H. Nguyen und Ryan Victory hinzu. „Sie haben diese bösartigen Erweiterungen dann in sozialen Medien und durch gesponserte Suchergebnisse beworben, um Menschen dazu zu bringen, Malware herunterzuladen. Tatsächlich enthielten einige dieser Erweiterungen ChatGPT-Funktionen, die mit Malware verwendet werden konnten, vermutlich um den Verdacht offizieller Online-Shops zu vermeiden. »

Siehe auch  Verständnis der Begriffe ChatGPT, DALL-E und Generative AI

Meta behauptet, mehr als 1.000 schädliche URLs auf seinen Plattformen im Zusammenhang mit ChatGPT blockiert zu haben, während diese URLs mit Industriepartnern geteilt werden.

Laut TechCrunch zielt die in Vietnam ansässige Ducktail-Malware seit 2021 auf Facebook-Nutzer ab. und Zwei-Faktor-Authentifizierungscodes.

Le Malware NodeStealer

Im Januar entdeckten Meta-Forscher die informationsstehlende Malware namens NodeStealer. Es ermöglicht Hackern, Browser-Cookies zu stehlen, um Konten auf Facebook sowie Gmail und Outlook zu hijacken.

„Wir haben NodeStealer innerhalb von zwei Wochen nach seiner Bereitstellung frühzeitig identifiziert und Maßnahmen ergriffen, um diejenigen zu stören und ihnen zu helfen, die möglicherweise angegriffen wurden, um ihre Konten wiederherzustellen“, erklären Duc H. Nguyen und Ryan Victory. Als Teil dieser Bemühungen haben wir Deaktivierungsanträge an Drittanbieter-Registrare, Hosting-Anbieter und Anwendungsdienste wie NameCheap gerichtet, die von Hackern angegriffen wurden, um die Verbreitung und böswillige Operationen zu erleichtern. Diese Aktionen haben die Malware erfolgreich beendet. »

Meta-Forscher gaben an, seit dem 27. Februar 2023 keine neuen Malware-Samples der NodeStealer-Familie beobachtet zu haben. Sie überwachen jedoch weiterhin alle potenziellen zukünftigen Aktivitäten.

Die Bedrohung durch generative KI

Forscher des Cybersicherheitsunternehmens Blackfog haben auch vor der Bedrohung durch ChatGPT gewarnt, einschließlich der Frage, wie das Tool Code entwickeln kann, der für böswillige Zwecke verwendet werden könnte. Das Unternehmen beobachtet derzeit, wie generative KI als Köder in den sozialen Medien eingesetzt werden kann.

„Wie BlackFog gezeigt hat, können ChatGPT und andere generative KI-Tools sehr effektiv für die Datenexfiltration verwendet werden, einschließlich des Schreibens der für diesen Zweck erforderlichen Software“, erklärte Darren WilliamsCEO und Gründer von BlackFog, in einer E-Mail.

Siehe auch  Forscher suchen nach Algorithmen, die den Planeten nicht zerstören: „Der Energieverbrauch von ChatGPT muss brutal sein“ | Wissenschaft und Technik

„Diese Tools werden jetzt verwendet, um Websites und Phishing-Sites zu erstellen, um Zugangsdaten zu stehlen und Malware auf Geräten zu installieren“, fügte Darren Williams hinzu. Er warnte auch davor, dass Bedrohungen im Zusammenhang mit ChatGPT wahrscheinlich eskalieren werden, weshalb die Cybersicherheitsbemühungen mit dieser neuen Technologie Schritt halten sollten.

„Herkömmliche Abwehransätze, Endpoint Detection and Response und Antiviren-Tools haben sich gegen diese modernen Ransomware-Varianten als äußerst unwirksam erwiesen“, fügte Darren Williams hinzu.

Eine solide Verteidigung wird weiterhin erforderlich sein, und dies erfordert, dass Internetnutzer die gebotene Sorgfalt walten lassen, um nicht in die Falle von Spoofing-Kampagnen zu tappen. „Der einzige wirkliche Weg, um sicherzustellen, dass Ihre Daten geschützt sind, besteht darin, sich auf neue Technologien zu konzentrieren, um die Datenexfiltration von vornherein zu verhindern“, fährt Darren Williams fort. „Wenn ein Hacker keine Daten exfiltrieren kann, kann er das Opfer nicht erpressen und hat daher nichts zu gewinnen. »

Artikel übersetzt von Forbes US – Autor: Peter Suciu

>>

4.6/5 - (111 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein