Die Warnung erfolgt im Vorfeld des britischen KI-Sicherheitsgipfels, bei dem die Regierung führende Persönlichkeiten der Welt und Branchenriesen einlädt, zusammenzukommen, um die Chancen und Gefahren der künstlichen Intelligenz zu diskutieren.
Dienstag, 24. Oktober 2023, 16:18 Uhr, Großbritannien
Laut einer Studie kann chatgpt dazu verleitet werden, bösartigen Code zu produzieren, der für Cyberangriffe genutzt werden könnte.
Das Tool von OpenAI und ähnliche Chatbots können schriftliche Inhalte auf der Grundlage von Benutzerbefehlen erstellen, da sie anhand enormer Textdatenmengen aus dem gesamten Internet trainiert wurden.
Sie sind mit Schutzmaßnahmen ausgestattet, um Missbrauch zu verhindern und Probleme wie Voreingenommenheit anzugehen.
Aus diesem Grund greifen Kriminelle auf Alternativen zurück, die gezielt zur Bekämpfung von Cyberkriminalität entwickelt wurden, wie zum Beispiel ein Dark-Web-Tool namens WormGPT dass Experten gewarnt haben, könnte zur Entwicklung groß angelegter Angriffe beitragen.
Forscher der University of Sheffield haben jedoch gewarnt, dass es auch bei Mainstream-Optionen Schwachstellen gibt, die es ermöglichen, sie dazu zu verleiten, Datenbanken zu zerstören, persönliche Daten zu stehlen und Dienste lahmzulegen.
Diese beinhalten ChatGPT und eine ähnliche Plattform des chinesischen Unternehmens Baidu.
Der Informatik-Doktorand Xutan Peng, der die Studie mitleitete, sagte: „Das Risiko mit.“ KIEs ist wie bei ChatGPT, dass immer mehr Menschen sie als Produktivitätstools und nicht als Konversations-Bot verwenden.
„Hier zeigen unsere Untersuchungen die Schwachstellen.“
Mehr lesen: Martin Lewis warnt vor „erschreckendem“ KI-Betrugsvideo KI „hat keine Fähigkeit, die Macht zu übernehmen“, sagt Microsoft-Chef
KI-generierter Code „kann schädlich sein“
So wie diese generativen KI-Tools bei der Beantwortung von Fragen versehentlich falsche Angaben machen können, können sie auch unbemerkt potenziell schädlichen Computercode erstellen.
Herr Peng schlug vor, dass eine Krankenschwester ChatGPT verwenden könnte, um Code zum Navigieren in einer Datenbank mit Patientenakten zu schreiben.
„Von ChatGPT erstellter Code kann in vielen Fällen schädlich für eine Datenbank sein“, sagte er.
„Die Krankenschwester kann in diesem Szenario schwerwiegende Datenverwaltungsfehler verursachen, ohne überhaupt eine Warnung zu erhalten.“
Während der Studie konnten die Wissenschaftler selbst mithilfe des Chatbots von Baidu Schadcode erstellen.
Das Unternehmen hat die Forschung erkannt und Maßnahmen ergriffen, um die gemeldeten Schwachstellen zu beheben.
Solche Bedenken haben zu Forderungen geführt mehr Transparenz darüber, wie KI-Modelle trainiert werdendamit Benutzer potenzielle Probleme mit den von ihnen gegebenen Antworten besser verstehen und wahrnehmen können.
Das Cybersicherheitsforschungsunternehmen Check Point hat Unternehmen außerdem aufgefordert, ihre Schutzmaßnahmen zu verbessern, da KI droht, Angriffe komplexer zu machen.
Es wird nächstes Woche ein Gesprächsthema beim britischen AI Safety Summit sein, bei dem die Regierung führende Persönlichkeiten der Welt und Branchenriesen einlädt, zusammenzukommen, um die Chancen und Gefahren der Technologie zu diskutieren.