Die Warnung erfolgt im Vorfeld des britischen KI-Sicherheitsgipfels, bei dem die Regierung führende Persönlichkeiten der Welt und Branchenriesen einlädt, zusammenzukommen, um die Chancen und Gefahren der künstlichen Intelligenz zu diskutieren.

Dienstag, 24. Oktober 2023, 16:18 Uhr, Großbritannien

Laut einer Studie kann chatgpt dazu verleitet werden, bösartigen Code zu produzieren, der für Cyberangriffe genutzt werden könnte.

Das Tool von OpenAI und ähnliche Chatbots können schriftliche Inhalte auf der Grundlage von Benutzerbefehlen erstellen, da sie anhand enormer Textdatenmengen aus dem gesamten Internet trainiert wurden.

Sie sind mit Schutzmaßnahmen ausgestattet, um Missbrauch zu verhindern und Probleme wie Voreingenommenheit anzugehen.

Aus diesem Grund greifen Kriminelle auf Alternativen zurück, die gezielt zur Bekämpfung von Cyberkriminalität entwickelt wurden, wie zum Beispiel ein Dark-Web-Tool namens WormGPT dass Experten gewarnt haben, könnte zur Entwicklung groß angelegter Angriffe beitragen.

Forscher der University of Sheffield haben jedoch gewarnt, dass es auch bei Mainstream-Optionen Schwachstellen gibt, die es ermöglichen, sie dazu zu verleiten, Datenbanken zu zerstören, persönliche Daten zu stehlen und Dienste lahmzulegen.

Diese beinhalten ChatGPT und eine ähnliche Plattform des chinesischen Unternehmens Baidu.

Der Informatik-Doktorand Xutan Peng, der die Studie mitleitete, sagte: „Das Risiko mit.“ KIEs ist wie bei ChatGPT, dass immer mehr Menschen sie als Produktivitätstools und nicht als Konversations-Bot verwenden.

Mehr zum Thema Künstliche Intelligenz

„Hier zeigen unsere Untersuchungen die Schwachstellen.“

Siehe auch  ChatGPT kann jetzt mit gesprochenen Worten antworten

Mehr lesen: Martin Lewis warnt vor „erschreckendem“ KI-Betrugsvideo KI „hat keine Fähigkeit, die Macht zu übernehmen“, sagt Microsoft-Chef

KI-generierter Code „kann schädlich sein“

So wie diese generativen KI-Tools bei der Beantwortung von Fragen versehentlich falsche Angaben machen können, können sie auch unbemerkt potenziell schädlichen Computercode erstellen.

Herr Peng schlug vor, dass eine Krankenschwester ChatGPT verwenden könnte, um Code zum Navigieren in einer Datenbank mit Patientenakten zu schreiben.

„Von ChatGPT erstellter Code kann in vielen Fällen schädlich für eine Datenbank sein“, sagte er.

„Die Krankenschwester kann in diesem Szenario schwerwiegende Datenverwaltungsfehler verursachen, ohne überhaupt eine Warnung zu erhalten.“

Während der Studie konnten die Wissenschaftler selbst mithilfe des Chatbots von Baidu Schadcode erstellen.

Das Unternehmen hat die Forschung erkannt und Maßnahmen ergriffen, um die gemeldeten Schwachstellen zu beheben.

Da es sich hierbei um eine eingeschränkte Version der Geschichte handelt, ist dieser Inhalt leider nicht verfügbar. Öffnen Sie die Vollversion

Solche Bedenken haben zu Forderungen geführt mehr Transparenz darüber, wie KI-Modelle trainiert werdendamit Benutzer potenzielle Probleme mit den von ihnen gegebenen Antworten besser verstehen und wahrnehmen können.

Das Cybersicherheitsforschungsunternehmen Check Point hat Unternehmen außerdem aufgefordert, ihre Schutzmaßnahmen zu verbessern, da KI droht, Angriffe komplexer zu machen.

Es wird nächstes Woche ein Gesprächsthema beim britischen AI Safety Summit sein, bei dem die Regierung führende Persönlichkeiten der Welt und Branchenriesen einlädt, zusammenzukommen, um die Chancen und Gefahren der Technologie zu diskutieren.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein