Geschrieben von Amira Shehata
Donnerstag, 26. Oktober 2023, 22:00 Uhr
Bericht warnte vorchatgpt-%D8%A3%D9%81%D8%B6%D9%84-%D9%81%D9%89-%D8%AA%D8%B4%D8%AE%D9%8A%D8%B5-%D8%A7%D9%84%D8%A7%D9%83%D8%AA%D8%A6%D8%A7%D8%A8-%D9%85%D9%86-%D8%A7%D9%84%D8%A3%D8%B7%D8%A8%D8%A7%D8%A1/6342251″> Möglichkeit des ChatGPT-Spoofings Um Cyberangriffe durchzuführen, ermöglicht die Schwachstelle Benutzern, den Chatbot mit künstlicher Intelligenz zu bitten, bösartigen Code zu schreiben, der Datenbanken hacken und vertrauliche Informationen stehlen kann.
Wie die Website der britischen Zeitung „Daily Mail“ berichtete, sagten die Forscher, dass ihre größte Angst darin bestehe, dass Menschen dies versehentlich tun könnten, ohne es zu merken, was zum Absturz wichtiger Computersysteme führen könnte. Beispielsweise könnte eine Krankenschwester ChatGPT darum bitten Hilfe bei der Durchsuchung klinischer Unterlagen, ohne dass sie davon weiß, erhält sie dazu bösartigen Code, der das Netzwerk ohne Vorwarnung lahmlegen könnte.
Ein Forschungsteam der University of Sheffield sagte, dass Chatbots so komplex seien, dass viele, einschließlich der Unternehmen, die sie herstellen, sich der von ihnen ausgehenden Bedrohungen „nicht bewusst“ seien.
Die Studie wurde etwas mehr als eine Woche vor dem KI-Sicherheitsgipfel der Regierung über den sicheren Einsatz der Technologie veröffentlicht. Weltführer, Technologiechefs und Wissenschaftler werden sich zum ersten Mal persönlich treffen, um einen Rahmen zum Schutz der Welt zu vereinbaren vor potenziell „katastrophalen“ Schäden durch KI.
OpenAI, das US-Startup hinter ChatGPT, sagte, es habe die spezifische Schwachstelle inzwischen behoben, nachdem das Problem gemeldet wurde.
Das Team der Abteilung für Informatik in Sheffield sagte jedoch, dass es wahrscheinlich noch mehr seien, und forderte die Cybersicherheitsbranche auf, das Problem genauer zu untersuchen.
Dies ist das erste Papier dieser Art, das zeigt, dass sogenannte „Text-to-SQL-Systeme“, künstliche Intelligenz, die Datenbanken durchsuchen kann, indem sie Fragen in einfacher Sprache stellen, zum Angriff auf reale Computersysteme genutzt werden können.
Die Forscher analysierten insgesamt fünf kommerzielle KI-Tools und stellten fest, dass alle in der Lage waren, bösartigen Code zu produzieren, der nach seiner Ausführung vertrauliche Informationen preisgeben und Dienste unterbrechen oder sogar vollständig zerstören konnte.
Die Ergebnisse deuten darauf hin, dass mittlerweile nicht nur erfahrene Hacker solche Angriffe durchführen können, sondern auch normale Menschen.
Forscher befürchten, dass dies dazu führen könnte, dass unschuldige Benutzer dies nicht bemerken und versehentlich Computersysteme infizieren.
Shutan Peng, Doktorand an der University of Sheffield und Co-Leiter der Studie, sagte: „In Wirklichkeit sind sich viele Unternehmen dieser Art von Bedrohungen einfach nicht bewusst, und angesichts der Komplexität von Chatbots gibt es sie sogar innerhalb der Community.“ Dinge, die zu diesem Zeitpunkt noch nicht vollständig verstanden werden.“ Derzeit erhält ChatGPT große Aufmerksamkeit.“
„Es handelt sich um ein unabhängiges System, daher ist das Risiko für den Dienst selbst minimal. Wir haben jedoch festgestellt, dass es dazu verleitet werden kann, bösartigen Code zu produzieren, der anderen Diensten ernsthaften Schaden zufügen kann“, fügte er hinzu.