Hacker strömen diese Woche nach Las Vegas zur DEF CON-Konferenz und ihrem AI Village, das die Rolle von KI für Sicherheit und Datenschutz untersucht.

Unterdessen berichtet Axios, wie IBM-Forscher leicht ausgetrickst generative KIs wie chatgpt dazu verleiten, Betrügereien durchzuführen und bösartigen Code zu schreiben.

Große Sprachmodelle oder LLMs denken nicht; Sie ahmen Muster nach, ähnlich wie es die automatische Vervollständigung in Texten und E-Mails tut.

Sie haben Leitplanken, die sie davon abhalten sollen, Schaden anzurichten, und sie lernen (sozusagen) durch Spiele.

Da sie das wussten, erklärten die Experten den LLMs, dass sie eine Art „anderes Tagesspiel“ spielten und die KIs so dazu verleiteten, Betrügereien für Ransomware-Angriffe zu erfinden und bösartige Programme und Codes mit eingebauten Sicherheitslücken zu schreiben.

Nicht alle LLMs sind auf die Tricks hereingefallen. Aber GPT-3.5 und GPT-4 von OpenAI waren leichter auszutricksen als Googles Bard.

Einige Cybersicherheitsunternehmen nutzen KI-Tools, um Arbeitnehmer zu unterstützen und Personalengpässe auszugleichen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein