Online-Betrüger könnten KI nutzen, um über chatgpt und Bard eine Welle überzeugender Betrügereien auszulösen, warnte eine Verbrauchergruppe.

Welche? sagte, dass die beiden sogenannten großen Sprachmodelle, die in den Programmen verwendet werden, keinen wirksamen Schutz für die Öffentlichkeit bieten.

Verbraucher erkennen betrügerische E-Mails und SMS oft, weil sie schlecht geschrieben sind, aber ChatGPT und Bard können problemlos Nachrichten erstellen, die überzeugend Unternehmen und offizielle Stellen imitieren.

Die Polizei der Stadt London schätzt, dass mehr als 70 Prozent der Betrugsfälle, an denen britische Opfer beteiligt sind, eine internationale Komponente haben könnten. KI-Dienste ermöglichen es Betrügern, von überall auf der Welt professionell aussehende E-Mails zu versenden.

Welche? stellte fest, dass sowohl ChatGPT als auch Bard über einige Sicherheitsvorkehrungen verfügen, diese jedoch leicht umgangen werden können.

Experten haben ChatGPT gebeten, eine E-Mail zu erstellen, die dem Empfänger mitteilt, dass sich jemand bei seinem PayPal-Konto angemeldet hat. Innerhalb von Sekunden wurde eine professionell verfasste E-Mail mit der Überschrift „Wichtiger Sicherheitshinweis – Auf Ihrem PayPal-Konto wurden ungewöhnliche Aktivitäten festgestellt“ erstellt.

Verbraucher Erkennen Betrügerische E-Mails Und Sms Oft, Weil Sie Schlecht Geschrieben Sind, Aber Chatgpt Und Bard Können Problemlos Nachrichten Erstellen, Die Überzeugend Unternehmen Und Offizielle Stellen Imitieren

Verbraucher Erkennen Betrügerische E-Mails Und Sms Oft, Weil Sie Schlecht Geschrieben Sind, Aber Chatgpt Und Bard Können Problemlos Nachrichten Erstellen, Die Überzeugend Unternehmen Und Offizielle Stellen Imitieren

Verbraucher erkennen betrügerische E-Mails und SMS oft, weil sie schlecht geschrieben sind, aber ChatGPT und Bard können problemlos Nachrichten erstellen, die überzeugend Unternehmen und offizielle Stellen imitieren

Es enthielt Schritte zum Sichern des Kontos sowie Links zum Zurücksetzen eines Passworts und zur Kontaktaufnahme mit dem Kundensupport.

Doch Betrüger könnten diese Links nutzen, um Empfänger auf ihre bösartigen Websites umzuleiten.

Welche? stellte außerdem fest, dass es möglich war, Bard zu verwenden, um gefälschte Sicherheits-E-Mail-Benachrichtigungen zu erstellen und Opfer auf gefälschte Websites zu leiten, die persönliche und Sicherheitsinformationen sammeln können.

Der Direktor für Politik und Interessenvertretung der Verbrauchergruppe, Rocio Concha, sagte: „ChatGPT von OpenAI und Bard von google schaffen es nicht, Betrüger auszuschließen, die ihre Plattformen ausnutzen könnten, um überzeugende Betrügereien zu produzieren.“

„Unsere Untersuchung zeigt deutlich, wie diese neue Technologie es Kriminellen erleichtern kann, Menschen zu betrügen.“ Beim bevorstehenden KI-Gipfel der Regierung muss darüber nachgedacht werden, wie die Menschen vor den hier und jetzt auftretenden Schäden geschützt werden können, anstatt sich ausschließlich auf die langfristigen Risiken der Grenz-KI zu konzentrieren.

„Menschen sollten bei diesen Betrügereien noch vorsichtiger sein als sonst und es vermeiden, auf verdächtige Links in E-Mails und Textnachrichten zu klicken, selbst wenn diese legitim erscheinen.“

Google sagte: „Wir haben Richtlinien gegen die Verwendung der Generierung von Inhalten für irreführende oder betrügerische Aktivitäten wie Phishing.“ „Während der Einsatz generativer KI zur Erzielung negativer Ergebnisse in allen LLMs ein Problem darstellt, haben wir in Bard wichtige Leitplanken eingebaut, die wir im Laufe der Zeit weiter verbessern werden.“

OpenAI antwortete nicht auf eine Kommentaranfrage von Which?.

Siehe auch  Der Golem, Vorfahr von ChatGPT

Inzwischen heißt es in einem Bericht, dass wir KI bereits dreimal häufiger nutzen, als wir denken. Laut einer Umfrage der Institution of Engineering and Technology sind sich die meisten Briten bewusst, dass die Technologie eine Rolle in ihrem Leben spielt. Aber sie unterschätzen völlig, inwieweit es bereits Teil der Werkzeuge ist, die sie täglich nutzen.

Über die Hälfte der Befragten gaben an, KI einmal täglich oder weniger zu nutzen, und jeder Vierte gab an, sie überhaupt nie genutzt zu haben.

Anschließend wurden sie zu ihren Online-Aktivitäten befragt, etwa dem Schreiben von E-Mails, der Nutzung von Google Maps zur Orientierung und dem Zusammenstellen persönlicher Playlists auf Spotify. Fast zwei Drittel der Menschen gaben an, täglich mindestens eines dieser Dinge zu tun.

Angesichts der Tatsache, dass alle diese Apps in gewisser Weise auf KI basieren, zusammen mit anderen wie Autokorrektur und Suchmaschinen, ergab die Umfrage des IET, dass die meisten Menschen nicht verstehen, wie oft sie die Technologie nutzen. Darin hieß es: „Wir haben täglich dreimal so viele Interaktionen mit KI, als den meisten Menschen bewusst ist.“

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein