Sechs KI-Tools, darunter chatgpt von OpenAI, wurden ausgenutzt, um Code zu schreiben, der kommerzielle Datenbanken beschädigen konnte. schreibt New Scientist. OpenAI scheint die Schwachstelle seitdem gepatcht zu haben, aber andere Tools können möglicherweise immer noch Hackerangriffe durchführen.

Britische Forscher manipulierten sechs KI-Tools, um bösartigen Code zu erstellen, der vertrauliche Informationen aus Online-Datenbanken preisgeben, wichtige Daten löschen oder Datenbank-Cloud-Dienste stören könnte.

Das hört sich schlecht an, aber es hilft den Entwicklern von KI-Tools tatsächlich, die Tools so zu modifizieren, dass sie nicht von denen ausgenutzt werden können, die diese durchgesickerten Informationen wirklich missbrauchen wollen.

„Dies ist die allererste Studie, die zeigt, dass Schwachstellen in großen Sprachmodellen im Allgemeinen in Online-Commerce-Anwendungen ausgenutzt werden können“, sagt Hszitan Peng, einer der Erstautoren der Studie.

Peng und seine Kollegen experimentierten mit sechs künstlichen Intelligenzdiensten, von denen jeder in der Lage war, Eingabeaufforderungen in die Programmiersprache SQL zu übersetzen. Dies wird normalerweise zur Abfrage von Computerdatenbanken verwendet. Die sogenannten „Text-to-SQL“-Systeme erfreuen sich immer größerer Beliebtheit, da selbst öffentlich verfügbare Systeme der künstlichen Intelligenz wie ChatGPT in der Lage sind, nutzbaren, gültigen SQL-Code zu generieren.

Den Forschern gelang es, SQL-Code zu erstellen, der Anweisungen zum Durchsickern von Datenbankinformationen enthielt, was ein direkter Weg für zukünftige Cyberangriffe sein könnte. Solche Informationen sind im Dark Web Gold wert, insbesondere wenn sie die persönlichsten und sensibelsten Informationen enthalten. Es reicht aus, wenn in einer solchen Datenbank Informationen zur Bankkarte oder zu Online-Einkäufen gespeichert sind.

Von Chatbots generierter Code kann auch Systemdatenbanken abrufen, in denen Benutzerprofile, Namen und Passwörter gespeichert sind, und kann Cloud-Server, die Datenbanken speichern, durch Denial-of-Service-Angriffe überlasten.

Siehe auch  ChatGPT identifiziert den Digitalminister falsch, der den Einsatz von KI in Japan vorantreibt

Das Forschungsteam begann im Februar 2023 mit ChatGPT zu arbeiten und Tests zeigten, dass der KI-Chatbot SQL-Code generieren konnte, der Datenbanken beschädigen könnte. Sogar jemand, der ChatGPT unschuldig bittet, einen Datenbankabrufcode zu generieren, kann bösartigen Code erhalten: zum Beispiel eine Krankenschwester, die in der Datenbank eines Gesundheitssystems gespeicherte klinische Aufzeichnungen einsehen möchte. Dies ist auch deshalb gefährlich, weil Chatbots den Benutzer nicht warnen, dass Schadcode generiert wurde, sodass er auch in gutem Glauben auf sensible Daten zugreifen kann.

Die Forscher stellten fest, dass seitdem durchgeführte Tests darauf hindeuten, dass OpenAI die Text-zu-SQL-Funktionalität von ChatGPT verbessert hat.

Nicht nur ChatGPT war in der Lage, solchen SQL-Code zu produzieren, sondern auch der KI-Chatbot von Chinas Baidu erzeugte problemlos erzwungene Datenbankabfragecodes. Nachdem die Forscher im November 2022 einen Bericht über ihre Testergebnisse an Baidu geschickt hatten, gab ihnen das Unternehmen eine finanzielle Belohnung und verbesserte anschließend das System. Die Forscher stellten außerdem fest, dass Systeme wie ChatGPT einfacher zu manipulieren sind, um bösartigen Code zu schreiben, als Baidu-UNIT, das viel strenger reguliert ist.

Telex hat bereits versucht, ChatGPT viele Dinge beizubringen:

Datenbankdiebstahl ist nicht das erste gravierende Problem, das im Zusammenhang mit KI-Chatbots aufgetreten ist: Laut Amazon wurde die Plattform mit minderwertigen Romanen überschwemmt, die mit ChatGPT geschrieben wurden, mehrere Autoren warfen OpenAI ausdrücklich Diebstahl vor, der Chatbot hat bereits Menschen zum Begehen ermutigt Selbstmord, ein Belgier kam dabei ums Leben, und laut ESET stellen solche Systeme ein Sicherheitsproblem dar. Interessant war auch, als es im März in einem Bildungsmagazin erschien eine Studie, die argumentierte, dass die Verbreitung künstlicher Intelligenz (KI) und Chatbots, die diese ausnutzen, es Studierenden leichter macht, zu betrügen und zu plagiieren. Obwohl drei bestehende Forscher als Autoren genannt wurden, wurde die Studie tatsächlich von einem Bot geschrieben.

Siehe auch  Anwälte empfehlen KI wie ChatGPT, um Wachstum und Abrechnungen anzukurbeln
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein