chatgpt und ähnliche KI-Tools erweisen sich in vielen verschiedenen Kontexten als nützlich – und Europol befürchtet, dass sie für Kriminelle genauso nützlich sein könnten.
ChatGPT, die am schnellsten wachsende App aller Zeiten, hat den Menschen die Leistung eines intelligenten großen Sprachmodells künstlicher Intelligenz (KI) gegeben – trainiert auf einer riesigen Datenbank mit Informationen aus dem Internet – auf Knopfdruck.
Diese neue Macht hat bereits zu Veränderungen in der Art und Weise geführt, wie viele Menschen ihre Arbeit verrichten oder im Internet nach Informationen suchen, wobei die Technologie von OpenAI sowohl die Begeisterung für das Versprechen der Zukunft, die KI liefern kann, als auch die Befürchtungen über die Veränderungen weckt, die sie ist einläuten.
Eine der Befürchtungen in Bezug auf KI-Technologien wie ChatGPT ist, was Kriminelle und andere schlechte Akteure mit dieser Macht tun werden.
Das hat Europol, die Strafverfolgungsbehörde der Europäischen Union, in ihrem jüngsten Bericht an ChatGPT mit dem Titel „Die Auswirkungen großer Sprachmodelle auf die Strafverfolgung‚.
ChatGPT, das auf der GPT3.5-Large-Language-Model-Technologie von OpenAI aufbaut, könnte es „böswilligen Akteuren erheblich erleichtern, verschiedene Arten von Straftaten besser zu verstehen und anschließend auszuführen“, heißt es in dem Bericht.
Das liegt daran, dass die Informationen, mit denen ChatGPT trainiert wird, bereits frei im Internet verfügbar sind, der Techniker jedoch in der Lage ist, Schritt-für-Schritt-Anleitungen zu allen möglichen Themen zu geben, wenn er die richtigen Kontextfragen von einem Benutzer erhält.
Hier sind die Arten von Verbrechen, bei denen Europol warnt, dass Chatbots oder LLMs Kriminellen potenziell helfen könnten.
Betrug, Nachahmung und Social Engineering
ChatGPT und andere Chatbots wie Bard von google haben die Benutzer mit ihren Fähigkeiten in Erstaunen versetzt, basierend auf Eingabeaufforderungen des Benutzers menschenähnliche Texte zu jedem Thema bereitzustellen.
Sie können den Schreibstil von Prominenten nachahmen und einen Schreibstil aus eingegebenem Text lernen, bevor sie weitere Texte in diesem erlernten Stil erstellen. Dadurch wird das System für die potenzielle Nutzung durch Kriminelle geöffnet, die den Schreibstil einer Person oder einer Organisation nachahmen wollen, was möglicherweise für Phishing-Betrügereien verwendet werden könnte.
Europol warnt auch davor, dass ChatGPT verwendet werden könnte, um verschiedenen Arten von Online-Betrug Legitimität zu verleihen, beispielsweise durch die Erstellung von Massen gefälschter Social-Media-Inhalte, um ein betrügerisches Investitionsangebot zu fördern.
Eines der sicheren Anzeichen für potenziellen Betrug in der E-Mail- oder Social-Media-Kommunikation sind offensichtliche Rechtschreib- oder Grammatikfehler, die von den Kriminellen gemacht werden, die den Inhalt schreiben.
Mit der Leistungsfähigkeit von LLMs an ihren Fingerspitzen wären selbst Kriminelle mit geringen Kenntnissen der englischen Sprache in der Lage, Inhalte zu generieren, die diese Warnsignale nicht mehr aufweisen.
Die Technologie ist auch reif für diejenigen, die Propaganda und Desinformation erstellen und verbreiten wollen, da sie in der Lage ist, Argumente und Erzählungen mit großer Geschwindigkeit zu erstellen.
Cyberkriminalität für Anfänger
ChatGPT ist nicht nur gut im Schreiben von Wörtern, sondern beherrscht auch eine Reihe von Programmiersprachen. Laut Europol könnte dies Auswirkungen auf die Cyberkriminalität haben.
„Mit der aktuellen Version von ChatGPT ist es bereits möglich, grundlegende Tools für eine Vielzahl von böswilligen Zwecken zu erstellen“, warnt der Bericht.
Dies wären grundlegende Tools, um beispielsweise Phishing-Seiten zu erstellen, aber es ermöglicht Kriminellen mit wenig bis gar keinen Programmierkenntnissen, Dinge zu erstellen, die sie zuvor nicht erstellen konnten.
Die unvermeidlichen Verbesserungen der LLM-Fähigkeiten bedeuten, dass die Ausbeutung durch Kriminelle in den kommenden Jahren „düstere Aussichten“ bietet.
Die Tatsache, dass OpenAIs neueste Version seines Transformers GPT-4 besser darin ist, den Kontext von Code zu verstehen und Fehler zu korrigieren, bedeutet, dass „dies eine unschätzbare Ressource“ für Kriminelle mit wenig technischem Wissen ist.
Europol warnt davor, dass die KI-Technologie, die sich verbessern soll, viel fortschrittlicher „und damit gefährlich“ werden kann.
Deepfakes haben bereits Konsequenzen für die reale Welt
Die Anwendungsfälle für ChatGPT, vor denen Europol gewarnt hat, sind nur ein Bereich der KI, der von Kriminellen ausgenutzt werden könnte.
Es gab bereits Fälle, in denen KI-Deepfakes verwendet wurden, um Menschen zu betrügen und ihnen Schaden zuzufügen. In einem Fall sagte eine Frau, sie sei erst 18 Jahre alt gewesen, als sie im Internet kursierende pornografische Bilder von ihr entdeckte – obwohl sie diese Bilder nie aufgenommen oder geteilt hatte.
Ihr Gesicht war digital zu Bildern des Körpers einer anderen Person hinzugefügt worden. Sie sagte Euronews Next, es sei „eine lebenslange Haftstrafe“. Ein Bericht von Deeptrace Labs aus dem Jahr 2019 ergab, dass 96 Prozent der Deepfake-Inhalte im Internet nicht einvernehmliche Pornografie sind.
In einem anderen Fall wurde KI verwendet, um mithilfe einer Audio-Deepfake-Technik den Klang der Stimme einer Person nachzuahmen, um deren Familienmitglied zu betrügen.
Europol schloss seinen Bericht mit der Feststellung, dass es für die Strafverfolgungsbehörden wichtig sei, „an der Spitze dieser Entwicklungen zu bleiben“ und die kriminelle Nutzung von KI zu antizipieren und zu verhindern.