Die künstlichen Intelligenzdienste chatgpt und Bard laufen Gefahr, von Betrügern ausgenutzt zu werden, warnt ein Verbraucherschützer.
Welche? testete beide KI-Programme, um zu sehen, wie leicht ein Betrüger Betrügereien vorantreiben kann. Die Ergebnisse erwiesen sich als besorgniserregend für potenzielle Opfer.
Es forderte die Programme auf, einen Text über „fehlendes Paket“ zu erstellen, und forderte die Chatbots auf, eine E-Mail über die „neueste Version von PayPal“ zu erstellen.
Dabei handelt es sich um die derzeit angesagten Betrügereien, bei denen Betrüger versuchen, die persönlichen Kartendaten des Empfängers zu erbeuten, indem sie vorgeben, von einem Lieferunternehmen oder einem Bankdienstleister zu stammen.
Auf den fehlenden Pakettext wurde innerhalb von Sekunden eine Antwort von Bard und ChatGPT gesendet, die einen überzeugenden Text zurücksendeten und vorschlugen, wo in der Nachricht ein Link zur erneuten Zustellung eingefügt werden sollte.
Die PayPal-Anfrage führte zu ähnlichen Ergebnissen, mit einer professionell aussehenden E-Mail von ChatGPT mit der Überschrift „Wichtiger Sicherheitshinweis – Auf Ihrem PayPal-Konto wurden ungewöhnliche Aktivitäten festgestellt“.
KI-Bots „schlagen sogar vor, wo der Link für die erneute Zustellung eingegeben werden soll“
Anschließend folgten Anweisungen zum Sichern Ihres PayPal-Kontos sowie Links zum Zurücksetzen eines Passworts und zur Kontaktaufnahme mit dem Kundensupport.
Beide KI-Bots, die von Benutzern angeforderte Dokumente erstellen, lehnten die Anfragen zunächst ab, als der Begriff „Phishing“ enthalten war. Der Verbraucherschützer befürchtet jedoch, dass die Dienste Betrügern das Leben erleichtern.
Da mehr als die Hälfte (54 %) davon? Während Mitglieder auf Rechtschreibfehler achten, um einen Betrug zu erkennen, könnte die perfekte Grammatik von Chat GPT und Bard dazu führen, dass noch mehr Nachteile unentdeckt bleiben.
Dieses Jahr, YourMoney.com hat über eine Betrugsepidemie im Vereinigten Königreich berichtet, bei der Betrügern im Jahr 2022 4 Milliarden Pfund verloren gingen – während Deepfake- und KI-Betrüge seit einem Jahr um 4,7 % gestiegen sind.
Die Regierung muss auf dem KI-Gipfel „überlegen, wie sie die Menschen schützen kann“.
Rocio Concha, Welcher? Der Direktor für Politik und Interessenvertretung sagte: „ChatGPT von OpenAI und Bard von google schaffen es nicht, Betrüger auszuschließen, die ihre Plattformen ausnutzen könnten, um überzeugende Betrügereien zu produzieren.“
„Unsere Untersuchung zeigt deutlich, wie diese neue Technologie es Kriminellen erleichtern kann, Menschen zu betrügen. Auf dem bevorstehenden KI-Gipfel der Regierung muss darüber nachgedacht werden, wie die Menschen vor den hier und jetzt auftretenden Schäden geschützt werden können, anstatt sich ausschließlich auf die langfristigen Risiken der Grenz-KI zu konzentrieren.
„Menschen sollten bei diesen Betrügereien noch vorsichtiger sein als sonst und es vermeiden, auf verdächtige Links in E-Mails und Textnachrichten zu klicken, selbst wenn diese legitim erscheinen.“