Die künstlichen Intelligenzdienste chatgpt und Bard laufen Gefahr, von Betrügern ausgenutzt zu werden, warnt ein Verbraucherschützer.

Welche? testete beide KI-Programme, um zu sehen, wie leicht ein Betrüger Betrügereien vorantreiben kann. Die Ergebnisse erwiesen sich als besorgniserregend für potenzielle Opfer.

Es forderte die Programme auf, einen Text über „fehlendes Paket“ zu erstellen, und forderte die Chatbots auf, eine E-Mail über die „neueste Version von PayPal“ zu erstellen.

Dabei handelt es sich um die derzeit angesagten Betrügereien, bei denen Betrüger versuchen, die persönlichen Kartendaten des Empfängers zu erbeuten, indem sie vorgeben, von einem Lieferunternehmen oder einem Bankdienstleister zu stammen.

Auf den fehlenden Pakettext wurde innerhalb von Sekunden eine Antwort von Bard und ChatGPT gesendet, die einen überzeugenden Text zurücksendeten und vorschlugen, wo in der Nachricht ein Link zur erneuten Zustellung eingefügt werden sollte.

Die PayPal-Anfrage führte zu ähnlichen Ergebnissen, mit einer professionell aussehenden E-Mail von ChatGPT mit der Überschrift „Wichtiger Sicherheitshinweis – Auf Ihrem PayPal-Konto wurden ungewöhnliche Aktivitäten festgestellt“.

KI-Bots „schlagen sogar vor, wo der Link für die erneute Zustellung eingegeben werden soll“

Anschließend folgten Anweisungen zum Sichern Ihres PayPal-Kontos sowie Links zum Zurücksetzen eines Passworts und zur Kontaktaufnahme mit dem Kundensupport.

Beide KI-Bots, die von Benutzern angeforderte Dokumente erstellen, lehnten die Anfragen zunächst ab, als der Begriff „Phishing“ enthalten war. Der Verbraucherschützer befürchtet jedoch, dass die Dienste Betrügern das Leben erleichtern.

Da mehr als die Hälfte (54 %) davon? Während Mitglieder auf Rechtschreibfehler achten, um einen Betrug zu erkennen, könnte die perfekte Grammatik von Chat GPT und Bard dazu führen, dass noch mehr Nachteile unentdeckt bleiben.

Siehe auch  Das KI-generierte Bilderkennungstool von OpenAI ist zu 99 % genau

Dieses Jahr, YourMoney.com hat über eine Betrugsepidemie im Vereinigten Königreich berichtet, bei der Betrügern im Jahr 2022 4 Milliarden Pfund verloren gingen – während Deepfake- und KI-Betrüge seit einem Jahr um 4,7 % gestiegen sind.

Die Regierung muss auf dem KI-Gipfel „überlegen, wie sie die Menschen schützen kann“.

Rocio Concha, Welcher? Der Direktor für Politik und Interessenvertretung sagte: „ChatGPT von OpenAI und Bard von google schaffen es nicht, Betrüger auszuschließen, die ihre Plattformen ausnutzen könnten, um überzeugende Betrügereien zu produzieren.“

„Unsere Untersuchung zeigt deutlich, wie diese neue Technologie es Kriminellen erleichtern kann, Menschen zu betrügen. Auf dem bevorstehenden KI-Gipfel der Regierung muss darüber nachgedacht werden, wie die Menschen vor den hier und jetzt auftretenden Schäden geschützt werden können, anstatt sich ausschließlich auf die langfristigen Risiken der Grenz-KI zu konzentrieren.

„Menschen sollten bei diesen Betrügereien noch vorsichtiger sein als sonst und es vermeiden, auf verdächtige Links in E-Mails und Textnachrichten zu klicken, selbst wenn diese legitim erscheinen.“

5/5 - (323 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein