chatgpt-Halluzinationen können zur Verbreitung bösartiger NPM-Pakete verwendet werden

Ein Hacker kann ChatGPT „zerstören“ und es dazu zwingen, Benutzern den Download eines Schadpakets zu empfehlen.

Po Daten Mithilfe des Schwachstellen- und Risikomanagementunternehmens Vulcan Cyber ​​können Angreifer ChatGPT manipulieren, um Schadpakete an Softwareentwickler zu verteilen.

Das Problem hängt mit den KI-Halluzinationen zusammen, die auftreten, wenn ChatGPT sachlich falsche oder unsinnige Informationen generiert, die möglicherweise plausibel erscheinen. Vulcan-Forscher stellten fest, dass ChatGPT möglicherweise aufgrund der Verwendung veralteter Trainingsdaten Codebibliotheken empfahl, die derzeit nicht existieren.

Die Forscher warnten, dass Cyberkriminelle die Namen solcher nicht existierenden Pakete ausspionieren und bösartige Versionen erstellen könnten, die Entwickler basierend auf ChatGPT-Empfehlungen herunterladen könnten. Insbesondere analysierten die Vulcan-Forscher beliebte Fragen zur Stack Overflow-Plattform und stellten diese Fragen im Kontext von Python und Node.js an ChatGPT.

Angriffsschema

Experten stellten ChatGPT über 400 Fragen und etwa 100 der Antworten enthielten Links zu mindestens einem Python- oder Node.js-Paket, das tatsächlich nicht existiert. Insgesamt wurden in ChatGPT-Antworten mehr als 150 nicht existierende Pakete erwähnt.

Wenn ein Angreifer die Namen der von ChatGPT empfohlenen Pakete kennt, kann er böswillige Kopien davon erstellen. Da die KI wahrscheinlich dieselben Pakete anderen Entwicklern empfiehlt, die ähnliche Fragen stellen, können ahnungslose Entwickler eine schädliche Version eines Pakets finden und installieren, das von einem Angreifer in beliebte Repositories hochgeladen wurde.

Vulkanische Cyber-Spezialisten gezeigt Wie diese Methode im wirklichen Leben funktionieren würde, indem ein Paket erstellt wird, das Systeminformationen von einem Gerät stehlen und in die NPM-Registrierung laden kann.

Angesichts der Art und Weise, wie Hacker die Lieferkette angreifen, indem sie bösartige Pakete in bekannten Repositorys bereitstellen, ist es für Entwickler wichtig, die von ihnen verwendeten Bibliotheken zu überprüfen, um sicherzustellen, dass sie sicher sind. Die Sicherheitsmaßnahmen sind mit der Einführung von ChatGPT noch wichtiger geworden, das Pakete empfehlen kann, die nicht wirklich existieren oder nicht existierten, bevor die Angreifer sie erstellt haben.

Siehe auch  Britischer Richter gibt zu, ChatGPT für Rechtshilfe genutzt zu haben

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein