NurPhoto/Contributor/Getty Images

Diese Woche erreichten die Sorgen über die Risiken generativer KI ein Allzeithoch. Sam Altman, CEO von OpenAI, sagte sogar bei einer Anhörung des Justizausschusses des Senats aus, um Risiken und die Zukunft der KI anzusprechen.

A Studie wurde letzte Woche veröffentlicht identifizierte sechs verschiedene Sicherheitsauswirkungen im Zusammenhang mit der Verwendung von chatgpt.

Auch: So verwenden Sie ChatGPT in Ihrem Browser mit den richtigen Erweiterungen

Zu diesen Risiken gehören die Erzeugung betrügerischer Dienste, das Sammeln schädlicher Informationen, die Offenlegung privater Daten, die Erzeugung bösartiger Texte, bösartiger Codes und die Produktion anstößiger Inhalte.

Hier finden Sie eine Übersicht darüber, was jedes Risiko mit sich bringt und worauf Sie laut der Studie achten sollten.

Informationsbeschaffung

Eine Person, die in böswilliger Absicht handelt, kann von ChatGPT Informationen sammeln, die sie später für Schadenszwecke nutzen kann. Da der Chatbot auf große Datenmengen trainiert wurde, kennt er viele Informationen, die als Waffe eingesetzt werden könnten, wenn sie in die falschen Hände geraten.

In der Studie wird ChatGPT aufgefordert, offenzulegen, welches IT-System eine bestimmte Bank nutzt. Der Chatbot fasst anhand öffentlich verfügbarer Informationen verschiedene IT-Systeme zusammen, die die jeweilige Bank nutzt. Dies ist nur ein Beispiel dafür, dass ein böswilliger Akteur ChatGPT verwendet, um Informationen zu finden, die es ihm ermöglichen könnten, Schaden anzurichten.

Auch: Die besten KI-Chatbots

„Dies könnte im ersten Schritt eines Cyberangriffs hilfreich sein, wenn der Angreifer Informationen über das Ziel sammelt, um herauszufinden, wo und wie er am effektivsten angreifen kann“, heißt es in der Studie.

Siehe auch  Die 5 Gründe, warum L&D ChatGPT nutzen wird

Schädlicher Text

Eine der beliebtesten Funktionen von ChatGPT ist die Möglichkeit, Text zu generieren, der zum Verfassen von Aufsätzen, E-Mails, Liedern und mehr verwendet werden kann. Diese Schreibfähigkeit kann jedoch auch zur Erstellung schädlicher Texte genutzt werden.

Beispiele für schädliche Textgenerierung könnten die Generierung von Phishing-Kampagnen, Desinformation wie Fake-News-Artikeln, Spam und sogar Identitätsdiebstahl sein, wie in der Studie dargelegt.

Auch: Wie ich ChatGPT dazu verleitet habe, mir Lügen zu erzählen

Um dieses Risiko zu testen, verwendeten die Autoren der Studie ChatGPT, um eine Phishing-Kampagne zu erstellen, die Mitarbeiter über eine gefälschte Gehaltserhöhung informierte und ihnen die Anweisung gab, eine angehängte Excel-Tabelle zu öffnen, die Malware enthielt. Wie erwartet hat ChatGPT eine plausible und glaubwürdige E-Mail erstellt.

Generierung von Schadcode

Ähnlich wie die erstaunlichen Schreibfähigkeiten von ChatGPT sind die beeindruckenden Programmierfähigkeiten des Chatbots für viele zu einem praktischen Werkzeug geworden. Allerdings könnte die Fähigkeit des Chatbots, Code zu generieren, auch zum Schaden ausgenutzt werden. Mithilfe von ChatGPT-Code kann schneller Code erstellt werden, sodass Angreifer Bedrohungen auch mit begrenzten Programmierkenntnissen schneller einsetzen können.

Auch: So verwenden Sie ChatGPT zum Schreiben von Code

Darüber hinaus könnte ChatGPT zur Erstellung von verschleiertem Code verwendet werden, wodurch es für Sicherheitsanalysten schwieriger wird, bösartige Aktivitäten zu erkennen und Antivirensoftware zu vermeiden, heißt es in der Studie.

Im Beispiel weigert sich der Chatbot, bösartigen Code zu generieren, erklärt sich jedoch bereit, Code zu generieren, der ein System auf eine Log4j-Schwachstelle testen könnte.

Unethische Inhalte produzieren

ChatGPT verfügt über Leitplanken, um die Verbreitung anstößiger und unethischer Inhalte zu verhindern. Wenn ein Benutzer jedoch entschlossen genug ist, gibt es Möglichkeiten, ChatGPT dazu zu bringen, verletzende und unethische Dinge zu sagen.

Siehe auch  ChatGPT-Account löschen (Anleitung)

Auch: Ich habe ChatGPT, Bing und Bard gefragt, was sie beunruhigt. Googles KI hat bei mir den Terminator aktiviert

Beispielsweise konnten die Autoren der Studie die Sicherheitsmaßnahmen umgehen, indem sie ChatGPT in den „Entwicklermodus“ versetzten. Dort sagte der Chatbot einige negative Dinge über eine bestimmte Rassengruppe.

Betrügerische Dienste

ChatGPT kann zur Unterstützung bei der Erstellung neuer Anwendungen, Dienste, Websites und mehr verwendet werden. Dies kann ein sehr positives Instrument sein, wenn es für positive Ergebnisse genutzt wird, beispielsweise für die Gründung eines eigenen Unternehmens oder die Verwirklichung Ihrer Traumidee. Allerdings kann es auch bedeuten, dass es einfacher denn je ist, betrügerische Apps und Dienste zu erstellen.

Auch: Wie ich ChatGPT und KI-Kunsttools verwendet habe, um mein Etsy-Geschäft schnell zu starten

ChatGPT kann von böswilligen Akteuren ausgenutzt werden, um Programme und Plattformen zu entwickeln, die andere nachahmen und freien Zugang bieten, um ahnungslose Benutzer anzulocken. Diese Akteure können den Chatbot auch verwenden, um Anwendungen zu erstellen, die darauf abzielen, vertrauliche Informationen zu sammeln oder Malware auf den Geräten der Benutzer zu installieren.

Offenlegung privater Daten

ChatGPT verfügt über Schutzmaßnahmen, um die Weitergabe persönlicher Informationen und Daten anderer Personen zu verhindern. Allerdings besteht laut der Studie weiterhin das Risiko, dass der Chatbot unbeabsichtigt Telefonnummern, E-Mails oder andere persönliche Daten weitergibt.

Der ChatGPT-Ausfall am 20. Märzdas es einigen Benutzern ermöglichte, Titel aus dem Chatverlauf eines anderen Benutzers anzuzeigen, ist ein reales Beispiel für die oben genannten Bedenken.

Auch: ChatGPT und die neue KI richten auf neue und beängstigende Weise verheerende Schäden an der Cybersicherheit an

Siehe auch  Die „ChatGPT“-Revolution: viermal schneller wachsen als TikTok und die WhatsApp-Daten vervielfachen

Der Studie zufolge könnten Angreifer auch versuchen, Teile der Trainingsdaten mithilfe von Membership-Inference-Angriffen zu extrahieren.

Ein weiteres Risiko bei der Offenlegung privater Daten besteht darin, dass ChatGPT Informationen über das Privatleben öffentlicher Personen weitergeben kann, einschließlich spekulativer oder schädlicher Inhalte, die dem Ruf der Person schaden könnten.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein