[ad_1]

chatgpt und die Welt der generativen KI sind vielleicht nicht jedermanns beste Freunde, aber einer aktuellen Studie zufolge hält die Technologie Cyberkriminelle tatsächlich in Schach.

Hacker sind skeptisch, wenn es um den Einsatz von KI-Tools wie ChatGPT geht, da sie befürchten, dass sie am Ende diejenigen sein könnten, die betrogen werden, wenn sie ihre böswilligen Motive verfolgen.

Die neueste Untersuchung an dieser Front war durchgeführt von Sophos Dabei wurden Hacker und deren aktuelle Interessen beurteilt. Diese Studie berücksichtigte alle Foren, in denen solche Cyberkriminellen lauern.

Zu diesem Zeitpunkt stellten die Forscher fest, wie viel Angst diese Personen aufgrund der zahlreichen Sicherheitsmaßnahmen hatten, die in einer langen Liste von Tools, einschließlich ChatGPT, vorhanden waren. Letzteres verhindert beispielsweise, dass Hacker gefährliche Zielseiten entwickeln, infizierte E-Mails versenden und sogar mit Malware infizierte Codes in die Systeme einschleusen.

Dies zwingt Hacker dazu, zwei Arten von Dingen zu tun, beispielsweise KI-Konten zu kompromittieren, die Premium-Abonnenten gehören. Und für diejenigen, die sich fragen, warum: Letztere unterliegen in der Regel weniger Einschränkungen als die anderen. Eine andere Möglichkeit besteht darin, auf Tools zurückzugreifen, die von ChatGPT abgeleitet sind. Letzteres wurde geklont, damit Hacker alle vorhandenen Sicherheitsmaßnahmen umgehen und ihre gewünschten Ziele problemlos erreichen können.

Allerdings sind nicht alle Hacker bereit, sich für die zweite Option zu entscheiden, da sie der Meinung sind, dass diese nur dazu gedacht ist, sie zu verschleiern und zu betrügen. Wie die Studie zeigt, haben Bedrohungsakteure große Angst davor, dass KI und große Sprachmodelle genau das Gegenteil von dem tun würden, was sie beabsichtigt haben, und das allein würde sie viel Zeit kosten.

Siehe auch  Vor Ort: „Menschen machen das Reisen besser“: Ensemble befasst sich mit ChatGPT auf einer Konferenz in Las Vegas

Stellen Sie sich vor, Sie würden gespielt, während Sie dachten, Sie wären derjenige, der das Sagen hat. Die Skepsis hat also ihren Höhepunkt erreicht und ist größer als die Begeisterung, die im Mittelpunkt steht.

Im Dark Web gab es fast 100 verschiedene Beiträge zum Thema KI. Und wenn man das mit Kryptowährungen vergleicht, bei denen im gleichen Zeitraum 1.000 Beiträge entdeckt wurden, wird man erstaunt sein, was auf dem Spiel steht.

Die Autoren der Studie sprachen auch davon, dass es Versuche zur Produktion von Schadsoftware oder eine Liste weiterer Angriffstools gebe. Diese wurden mit Hilfe von Chatbots erstellt, die auf KI basieren. Darüber hinaus wurde das Ergebnis auch von zahlreichen anderen Nutzern skeptisch beurteilt.

Wenn Sie sich also ein Ende des Spektrums ansehen, sehen Sie einen Top-Bedrohungsakteur, der die wahren Vorteile von ChatGPT hervorheben möchte, während Sie in einem anderen Beitrag tatsächliche Informationen über die wahre Identität sehen.

Es wurde eine Liste mit so vielen Gedankenstücken entdeckt, die über die negativen Auswirkungen von KI und ihre Auswirkungen auf die Gesellschaft sprachen. Dazu gehören auch die Arten ethischer Implikationen hinsichtlich der Nutzung. Aber auch wenn dies nicht der Fall ist, ist es auf jeden Fall ermutigend zu sehen, wie es Cyber-Bedrohungen abwehrt.

Cy C

Lesen Sie weiter: Die stabile Verbreitung beliebter KI-Bildgeneratoren stellt Minderheiten nicht dar und fördert gleichzeitig schädliche Stereotypen, heißt es in einer neuen Studie

[ad_2]

5/5 - (260 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein