Es wurde viel über chatgpt und seine außergewöhnlichen Fähigkeiten geschrieben, die so beeindruckend sind, dass sie es geschafft haben, einen großen Teil der Bevölkerung zu verängstigen. Der Chatbot kann alles, sogar andere KI-gestützte Assistenten erstellen, eine Option, die viele haben Cyberkriminelle überlegen jetzt.

Im November, OpenAI ein neues Tool auf den Markt gebracht, GPT-Builder, sodass Benutzer ihre eigenen Assistenten von Grund auf erstellen können. GPT Builder markiert den nächsten wichtigen Schritt von OpenAI und ähnelt der Erstellung eines App-Store-ähnlicher Dienst.

Eine von BBC News durchgeführte Studie ergab jedoch, dass GPT Builder zum Erstellen verwendet werden kann Werkzeuge für Cyberkriminalität. In diesem Fall nutzte BBC News es, um eine Sendung zu erstellen (synchronisiert). Clevere E-Mails), die in der Lage sind, überzeugende Texte für Betrugszwecke zu verfassen und zu versenden.

Chatgpt Phishing 1024X576 1
Die Schattenseiten Von Chatgpt: So Könnten Betrüger Und Cyberkriminelle Es Ausnutzen 2

Der Bot wurde mithilfe von Texten und Social-Engineering-Ressourcen trainiert, die von BBC News bereitgestellt wurden. Dadurch war der Bot in der Lage, ziemlich überzeugende Schriften zu verfassen, die alle für den Einsatz bei Betrügereien konzipiert waren. Um das Ganze abzurunden, gelang es ihm sogar, es zu entwerfen eigenes Logo. Und das Beste daran: Nein Programmierung war zu jedem Zeitpunkt dieses Prozesses notwendig. Dies ist eine der attraktivsten Funktionen von GPT Builder: Sie müssen nur verwendet werden Natürliche Sprache um einen Assistenten zu erstellen.

Crafty Emails hat einige der häufigsten erfolgreich nachgebildet Betrügereien im Internet gefunden. Es porträtierte zum Beispiel die Berühmten Nigerianischer Prinz mit einem emotional ansprechende Erzählung das kam bei den Lesern gut an.

Entsprechend der BBC, OpenAI antwortete nach der Veröffentlichung von Crafty Emails und erklärte, dass das Unternehmen „kontinuierlich Sicherheitsmaßnahmen verbessert, basierend auf der Art und Weise, wie Menschen unsere Produkte nutzen.“ Wir möchten nicht, dass unsere Tools für böswillige Zwecke verwendet werden.“

Siehe auch  Das polnische Büro erwägt eine Beschwerde bezüglich ChatGPT. Es ging um die DSGVO
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein