Geschrieben von Muhammad Ayman
Donnerstag, 26. Oktober 2023, 01:00 Uhr
Ein Bericht, der erste seiner Art, warnte vor der Möglichkeit der Ausbeutung chatgpt Und andere künstliche Intelligenzsysteme, um elektronische Angriffe zu starten und andere Computersysteme zum Absturz zu bringen, da Forscher der Universität Sheffield laut der Zeitung „Metro“ eine Sicherheitslücke in sechs kommerziellen künstlichen Intelligenztools aufdeckten, indem sie jedes einzelne davon erfolgreich angriffen.
Experten haben herausgefunden, dass sie schädlichen Code produzieren können, wenn sie auf verschiedenen Plattformen bestimmte Fragen stellen. Sobald der Code ausgeführt wird, kann er vertrauliche Informationen preisgeben und Dienste unterbrechen oder sogar zerstören..
Die Arbeit des Teams wurde bereits zur Verbesserung kommerzieller KI-Plattformen genutzt, warnt jedoch davor, dass ständig aktualisierte Cyberstrategien entwickelt werden..
Diese von Wissenschaftlern des Fachbereichs Informatik der Universität Sheffield im Vereinigten Königreich durchgeführte Studie ist die erste, die zeigt, dass Text-zu-Text-Konvertierungssysteme SQL – Künstliche Intelligenz, die es Menschen ermöglicht, Datenbanken zu durchsuchen, indem sie Fragen in einfacher Sprache stellt, wird in einer Vielzahl von Branchen eingesetzt – sie kann ausgenutzt werden, um reale Computersysteme anzugreifen.
Ihre Ergebnisse zeigten, wie KI-Systeme gehackt und manipuliert werden können, um … Daten stehlen sensible Daten, Manipulation oder Zerstörung ganzer Datenbanken oder sogar der Ausfall von Diensten durch Denial-of-Service-Angriffe.
„In Wirklichkeit sind sich viele Unternehmen dieser Art von Bedrohungen einfach nicht bewusst, und angesichts der Komplexität von Chatbots gibt es selbst innerhalb der Gesellschaft Dinge, die nicht vollständig verstanden werden“, sagte Shutan Peng, ein Doktorand, der die Forschung mitleitete an der Universität Sheffield.