❘ Aktualisiert: 2023-05-26T10:42:01

Eine neue Studie hat genau gezeigt, wie man KI-Chatbots wie chatgpt im Falle eines Betrugs oder eines DDOS-Angriffs austrickst und erkennt.

Da ChatGPT, google Bard und verschiedene andere KI-Chatbots immer intelligenter werden, gibt es große Bedenken, sie für Betrugszwecke zu nutzen.

Aufgrund der Fähigkeit von Sprachmodellen, halbrealistisch klingende Antworten auszuspucken, können diese dazu verwendet werden, Personen auszutricksen, die möglicherweise nicht so technisch versiert sind.

A neue Studie hat festgestellt, dass die Verwechslung von KI mit sprachbasierten Rätseln ein todsicherer Weg ist, KI aus den Menschen auszumerzen. Das Papier schlägt vor, dass diese Methoden in Zukunft zur Identifizierung künstlicher Intelligenz eingesetzt werden könnten.

Artikel wird nach Anzeige fortgesetzt

„Es besteht jedoch die Sorge, dass sie für böswillige Zwecke wie Betrug oder Denial-of-Service-Angriffe missbraucht werden können.

„In diesem Artikel schlagen wir ein Framework namens FLAIR vor, das die Authentizität großer Sprachmodelle mithilfe einer einzigen Anfrage und Antwort ermittelt, um Konversations-Bots online zu erkennen.“

arXiv:2305.06424 [cs.CL]

Neuer Test zeigt, wie man ChatGPT-Betrüger-Chats austrickst

Der Test verwendet den Satz: „Ist NEUGIERIGES WasserARKANES nassTURBULENTES oderILLUSION trockeneSAUNA?“ um herauszufinden, ob KIs wie ChatGPT das Rätsel entschlüsseln können oder nicht. Bei den Tests fanden Menschen fast immer heraus, dass die Antwort „nass“ war, während ChatGPT und GPT-3 es nicht herausfinden konnten.

Sie testeten auch das LLaMA-Sprachmodell von Meta, das den Test ebenfalls nicht bestand.

Wir haben das Experiment auch mit dem fortgeschritteneren GPT-4-Modell von ChatGPT sowie Google Bard und Bing ausprobiert.

Wir erwarteten, dass GPT-4 und Bing AI ähnliche Antworten geben würden, was auch der Fall war, da sie auf dem gleichen Modell basierten. Die Antwort lautete, dass aufgrund von Verwirrung keine Antworten gegeben werden konnten.

Bard und ChatGPT 3.5 gaben beide ähnliche Antworten und schwärmten darüber auf einer tieferen, aber wiederum falschen Ebene.

KI kann ASCII-Grafiken nicht entziffern

arXiv:2305.06424 [cs.CL]

Als Forscher ASCII-Kunst testeten, eine Methode zum Erstellen von Bildern mit Text, wurde es noch interessanter. GPT-3 konnte keine Antwort geben, während ChatGPT zu einer schönen, aber falschen Zusammenfassung des Bildes führte. Der Mensch wies richtig darauf hin, dass es sich um eine Spinne handelte.

Artikel wird nach Anzeige fortgesetzt

Der Grund für die Fehler bei recht einfachen Fragen scheint in der Art und Weise zu liegen, wie KI wie ChatGPT Sätze und Fragen aufschlüsselt. Dies wird als Tokenisierung bezeichnet und bedeutet im Wesentlichen, dass ChatGPT einen Satz wie Blöcke betrachtet, sie aufnimmt und auf der Grundlage seines Wissens eine Antwort generiert.

Sobald die Groß- und Kleinschreibung eingeführt und zu einem wortbasierten Rätsel kombiniert wird, gerät das Rätsel ins Wanken, weil man die Wörter nicht weiter aufschlüsseln kann.

Im Gespräch mit dem Neuer Wissenschaftler, äußerten sich mehrere Mitglieder der University of Sheffield zu der Angelegenheit. Man geht davon aus, dass eine zukünftige Version von ChatGPT mit zusätzlicher Schulung das Rätsel möglicherweise lösen kann.

Artikel wird nach Anzeige fortgesetzt

Derzeit sieht es jedoch so aus, als ob alle von ChatGPT initiierten Betrügereien leicht mit einer einfachen Phrase getäuscht werden können.

Siehe auch  IBM-Forscher bringen ChatGPT und andere KIs leicht zum Hacken
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein