Eine Studie von Forschern des Fachbereichs Informatik der University of Sheffield ergab, dass es möglich ist, Chatbots so zu manipulieren, dass sie Code erstellen, der in der Lage ist, in andere Systeme einzudringen.
Generative KI-Tools wie chatgpt können Inhalte auf der Grundlage von Benutzerbefehlen oder -aufforderungen erstellen und werden voraussichtlich erhebliche Auswirkungen auf das tägliche Leben haben, da sie in der Industrie, im Bildungswesen und im Gesundheitswesen immer häufiger eingesetzt werden.
Die Forscher haben jedoch davor gewarnt, dass Sicherheitslücken bestehen, und sagten, ihre Untersuchungen hätten ergeben, dass sie die Chatbots dazu verleiten könnten, mithilfe von Denial-of-Service-Angriffen vertrauliche persönliche Daten zu stehlen, Datenbanken zu manipulieren oder zu zerstören oder Dienste lahmzulegen.
Insgesamt fand die Universitätsstudie Schwachstellen in sechs kommerziellen KI-Tools – von denen ChatGPT das bekannteste war.
Auf der chinesischen Plattform Baidu-Unit konnten die Wissenschaftler mit Schadcode an vertrauliche Baidu-Serverkonfigurationen gelangen und einen Serverknoten manipulieren.
Als Reaktion darauf sei die Forschung von Baidu anerkannt worden, das die gemeldeten Schwachstellen behoben und die Wissenschaftler finanziell belohnt habe, teilte die Universität mit.
Xutan Peng, ein Doktorand an der University of Sheffield, der die Studie mitleitete, sagte: „In Wirklichkeit sind sich viele Unternehmen dieser Art von Bedrohungen einfach nicht bewusst, und aufgrund der Komplexität von Chatbots gibt es sie sogar innerhalb der Community.“ Dinge, die nicht vollständig verstanden werden.
„Im Moment erhält ChatGPT große Aufmerksamkeit. Da es sich um ein eigenständiges System handelt, sind die Risiken für den Dienst selbst minimal. Wir haben jedoch festgestellt, dass es dazu verleitet werden kann, bösartigen Code zu produzieren, der anderen Diensten ernsthaften Schaden zufügen kann.“
Die Forscher warnten außerdem davor, dass Menschen, die KI zum Erlernen von Programmiersprachen nutzen, eine Gefahr darstellen, da sie unbeabsichtigt schädlichen Code erstellen könnten.
„Das Risiko bei KIs wie ChatGPT besteht darin, dass immer mehr Menschen sie als Produktivitätstools und nicht als Konversations-Bot verwenden, und hier zeigen unsere Untersuchungen, dass die Schwachstellen liegen“, sagte Peng.
„Zum Beispiel könnte eine Krankenschwester ChatGPT bitten, einen (Programmiersprachen-)SQL-Befehl zu schreiben, damit sie mit einer Datenbank interagieren kann, beispielsweise einer Datenbank, in der klinische Aufzeichnungen gespeichert sind.
„Wie in unserer Studie gezeigt, kann der von ChatGPT erzeugte SQL-Code in vielen Fällen schädlich für eine Datenbank sein, sodass die Krankenschwester in diesem Szenario schwerwiegende Datenverwaltungsfehler verursachen kann, ohne überhaupt eine Warnung zu erhalten.“
Das Vereinigte Königreich wird nächste Woche einen KI-Sicherheitsgipfel veranstalten, bei dem die Regierung führende Persönlichkeiten der Welt und Branchenriesen einlädt, zusammenzukommen, um die Chancen und Sicherheitsbedenken im Zusammenhang mit künstlicher Intelligenz zu diskutieren.