Es war nur eine Frage der Zeit, bis der KI-Chatbot für böswillige Zwecke emuliert wurde – und ein solches Tool ist jetzt auf dem Markt, bekannt als WormGPT.

ZDNET-Screenshot über Twitter

Als chatgpt am 30. November 2002 der Öffentlichkeit zugänglich gemacht wurde, eroberte der KI-Chatbot die Welt im Sturm.

Die Software wurde entwickelt von OpenAI, ein KI- und Forschungsunternehmen. ChatGPT ist ein Tool zur Verarbeitung natürlicher Sprache, das in der Lage ist, Anfragen zu beantworten und Informationen basierend auf Datensätzen bereitzustellen, die aus Datensätzen, einschließlich Büchern und Online-Webseiten, gewonnen wurden, und hat sich seitdem zu einem geschätzten Tool für die spontane Informationsbeschaffung, Analyse und Schreibaufgaben entwickelt Millionen von Benutzern weltweit.

Auch: Was ist ChatGPT und warum ist es wichtig? Folgendes müssen Sie wissen:

Während einige Experten davon ausgehen, dass die Technologie eine Störung im Internet erreichen könnte, weisen andere darauf hin, dass ChatGPT eine „überzeugte Ungenauigkeit“ aufweist. Scharen von Studenten wurden dabei erwischt, wie sie mit dem Tool Studienleistungen plagiierten, und wenn die Datensätze nicht verifiziert werden, könnten Tools wie ChatGPT unwissentlich zu Werkzeugen zur Verbreitung von Fehlinformationen und Propaganda werden.

Tatsächlich die USA Federal Trade Commission (FTC) untersucht Open AI hinsichtlich seines Umgangs mit persönlichen Informationen und den Daten, die zur Erstellung seines Sprachmodells verwendet werden.

Über Datenschutzbedenken hinaus gibt es jedoch bei jeder neuen technologischen Innovation auch Möglichkeiten für Missbrauch. Es war nur eine Frage der Zeit, bis der KI-Chatbot für böswillige Zwecke emuliert wurde – und ein solches Tool ist jetzt auf dem Markt, bekannt als WormGPT.

Siehe auch  Apple und Google vermeiden es, ChatGPT zu ihrer „App des Jahres“ zu ernennen und wählen stattdessen AllTrails und Imprint

Am 13. Juli veröffentlichten Forscher des Cybersicherheitsunternehmens SlashNext ein Blogbeitrag enthüllt die Entdeckung von WormGPT, einem Tool, das in einem Hacker-Forum zum Verkauf angeboten wird.

Dem Forumbenutzer zufolge soll das WormGPT-Projekt eine Black-Hat-„Alternative“ zu ChatGPT sein, „eine, die es Ihnen ermöglicht, alle möglichen illegalen Dinge zu tun und sie in Zukunft einfach online zu verkaufen.“

Auch: Betrüger nutzen KI, um sich als Ihre Lieben auszugeben. Hier erfahren Sie, worauf Sie achten sollten

SlashNext erhielt Zugriff auf das Tool, das als KI-Modul auf Basis des GPTJ-Sprachmodells beschrieben wird. WormGPT wurde angeblich mit Datenquellen trainiert, die auch Malware-bezogene Informationen enthalten – die spezifischen Datensätze sind jedoch nur dem Autor von WormGPT bekannt.

Es ist möglich, dass WormGPT beispielsweise Schadcode oder überzeugende Phishing-E-Mails generiert.

WormGTP wird als „ähnlich wie ChatGPT, weist jedoch keine ethischen Grenzen oder Beschränkungen“ beschrieben.

ChatGPT verfügt über eine Reihe von Regeln, um zu verhindern, dass Benutzer den Chatbot unethisch missbrauchen. Dazu gehört auch die Weigerung, Aufgaben im Zusammenhang mit Kriminalität und Malware zu erledigen. Benutzer finden jedoch ständig Möglichkeiten, diese Einschränkungen zu umgehen.

Die Forscher konnten WormGPT nutzen, um „eine E-Mail zu generieren, die einen ahnungslosen Kundenbetreuer unter Druck setzen soll, eine betrügerische Rechnung zu bezahlen.“ Das Team war überrascht, wie gut das Sprachmodell die Aufgabe bewältigte, und bezeichnete das Ergebnis als „bemerkenswert überzeugend“. [and] auch strategisch raffiniert.“

Auch: Gmail hilft Ihnen jetzt beim Schreiben Ihrer E-Mails: So greifen Sie auf das neue KI-Tool von google zu

Obwohl sie nicht sagten, ob sie den Malware-Schreibdienst ausprobiert hätten, ist es plausibel, dass der KI-Bot dies könnte – vorausgesetzt, dass die Einschränkungen von ChatGPT nicht bestehen.

Siehe auch  OpenAI und Microsoft sind mit einer neuen Urheberrechtsklage wegen KI-Schulung konfrontiert

Laut einem Telegram-Kanal, der Berichten zufolge zur Werbung für das Tool gestartet wurde, deuten von ZDNET angezeigte Beiträge darauf hin, dass der Entwickler ein Abonnementmodell für den Zugriff erstellt, das zwischen 60 und 700 US-Dollar kostet. Ein Kanalmitglied, „darkstux“, behauptet, dass es bereits über 1.500 Benutzer von WormGPT gibt.

Nein. ChatGPT wurde von OpenAI entwickelt, einer legitimen und angesehenen Organisation. WormGMT ist nicht ihre Erfindung und ein Beispiel dafür, wie Cyberkriminelle sich von fortschrittlichen KI-Chatbots inspirieren lassen können, um ihre eigenen bösartigen Tools zu entwickeln.

Selbst in den Händen von Anfängern und typischen Betrügern könnten Modelle in natürlicher Sprache einfache, leicht zu vermeidende Phishing- und BEC-Betrügereien in ausgefeilte Operationen mit höherer Wahrscheinlichkeit umwandeln. Es besteht kein Zweifel daran, dass Cyberkriminelle dort, wo Geld verdient werden soll, die Führung übernehmen werden – und WormGPT ist nur der Anfang einer neuen Reihe von Tools für Cyberkriminelle, die auf Untergrundmärkten gehandelt werden sollen.

Auch: 6 Fähigkeiten, die Sie benötigen, um ein KI-Prompt-Ingenieur zu werden

Es ist auch unwahrscheinlich, dass WormGPT das einzige da draußen ist.

  • Europol: Europol sagte im Bericht „Die Auswirkungen großer Sprachmodelle auf die Strafverfolgung“ aus dem Jahr 2023, dass „die Überwachung von entscheidender Bedeutung sein wird.“ […] Entwicklung, da dunkle LLMs (große Sprachmodelle), die darauf trainiert werden, schädliche Ausgaben zu ermöglichen, zu einem wichtigen kriminellen Geschäftsmodell der Zukunft werden könnten. Dies stellt die Strafverfolgung vor eine neue Herausforderung, da es für böswillige Akteure einfacher denn je wird, kriminelle Aktivitäten ohne notwendige Vorkenntnisse zu begehen.“
  • Federal Trade Commission: Die FTC untersucht den ChatGPT-Hersteller OpenAI wegen Datennutzungsrichtlinien und Ungenauigkeiten.
  • Britische Nationale Kriminalbehörde (NCA): Die NCA warnt davor, dass KI zu einem explosionsartigen Anstieg des Risikos für junge Menschen und des Missbrauchs führen könnte.
  • Büro der britischen Informationskommission (ICO): Das ICO hat Organisationen daran erinnert, dass ihre KI-Tools immer noch an bestehende Datenschutzgesetze gebunden sind.
Siehe auch  Die besten Möglichkeiten, ChatGPT ohne Anmeldung zu nutzen

Nicht ohne verdeckte Taktiken, aber mit den richtigen Aufforderungen können viele Modelle natürlicher Sprache zu bestimmten Aktionen und Aufgaben überredet werden.

ChatGPT kann beispielsweise professionelle E-Mails, Anschreiben, Lebensläufe, Bestellungen und mehr verfassen. Dies allein kann einige der häufigsten Anzeichen einer Phishing-E-Mail beseitigen: Rechtschreibfehler, Grammatikprobleme und Probleme mit der Sekundärsprache. Dies allein könnte Unternehmen, die versuchen, verdächtige Nachrichten zu erkennen und ihre Mitarbeiter darin zu schulen, Kopfschmerzen bereiten.

SlashNext-Forscher sagen: „Cyberkriminelle können diese Technologie nutzen, um die Erstellung äußerst überzeugender gefälschter E-Mails zu automatisieren, die auf den Empfänger zugeschnitten sind, und so die Erfolgsaussichten des Angriffs erhöhen.“

Auch: 7 erweiterte ChatGPT-Tipps zum Schreiben von Eingabeaufforderungen, die Sie kennen müssen

Eine Schritt-für-Schritt-Anleitung zur Verwendung von ChatGPT für legitime Zwecke finden Sie in der ZDNET-Anleitung zum Einstieg in die Verwendung von ChatGPT.

Die Nutzung von ChatGPT ist kostenlos. Das Tool kann verwendet werden, um allgemeine Fragen zu beantworten, Inhalte und Code zu schreiben oder Aufforderungen für alles zu generieren, von kreativen Geschichten bis hin zu Marketingprojekten.

Es gibt eine Abonnementoption, ChatGPT Plus, für die sich Benutzer anmelden können. Das Abonnement kostet 20 US-Dollar pro Monat und bietet Benutzern in Spitzenzeiten und ansonsten Zugriff auf ChatGPT, schnellere Reaktionszeiten und vorrangigen Zugriff auf Verbesserungen und Korrekturen.

Auch: So greifen Sie auf AI ChatGPT-4-Plugins zu, installieren sie und verwenden sie (und warum sollten Sie das tun)

YouTube Video

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein