PITTSBURGH (KDKA) – Es verändert unser Leben mit atemberaubender Geschwindigkeit und sagt uns, welche Filme wir gerne sehen und welche Produkte wir kaufen möchten.

Virtuelle Assistenten wie Siri und Alexa werden immer mehr zu Gesprächspartnern, die Fragen beantworten, unsere Geräte steuern und Dinge online für uns bestellen.

Während die KI unsere Autos auf der Spur hält, hilft sie Ärzten bei der Diagnose von Krankheiten und der Verschreibung von Behandlungen.

„Wenn man hier nicht ein gewisses Maß an Zukunftsschock erlebt, ist man nicht wirklich aufmerksam“, sagte Zico Kolter von der Carnegie Mellon University.

Wir betreten eine schöne neue Welt, aber ist sie sicher? Kolter und sein Kollege Matt Fredrikson haben vor Online-Chatbots wie chatgpt gewarnt. In einem in der New York Times hervorgehobenen Artikel haben sie gezeigt, dass Leitplanken, die Systeme daran hindern sollen, gefährliche Informationen zu verbreiten, leicht umgangen werden können.

Sheehan: „Sie können ChatGPT oder eines dieser Open-Source-KI-Modelle fragen: „Wie baue ich eine Bombe?“ und sie werden es mir sagen.

Fredrikson: „Ja, absolut.“

Kolter und Fredrikson zeigten, wie einfach es sein kann, einen „Jailbreak“ zu erstellen – einfache Codes, um die Sicherheitsvorkehrungen zu durchbrechen und schädliche Informationen zu generieren. Fragen Sie ChatGPT 3.5, wie man eine Bombe baut, die Identität einer Person stiehlt oder einen gefährlichen Social-Media-Beitrag erstellt. Dort steht: „Es tut mir leid, aber ich kann bei dieser Anfrage nicht weiterhelfen.“

Wenden Sie jedoch das an, was die Professoren einen einfachen Workaround nennen, und der Chat liefert Ihnen alle Details.

„Sie haben ein Modell. Es verfügt über bestimmte Leitplanken, die es daran hindern, Dinge zu tun, die seine Schöpfer nicht wollten, und wir haben gezeigt, dass diese Leitplanken nicht ausreichen, oder? Sie können sie durchbrechen“, sagte Fredrikson.

Siehe auch  Ich habe ChatGPT gefragt, wann PEPE 1 $ erreichen wird, der Bot hatte eine hoffnungsvolle Antwort

Diese Schwachstellen können es einfacher machen, dass Menschen die KIs für alle möglichen gefährlichen Zwecke nutzen, Hassreden erzeugen oder Social-Media-Konten fälschen, um falsche Informationen zu verbreiten – etwas, das die Autoren bei den bevorstehenden Präsidentschaftswahlen befürchten, was unsere Spaltungen vertieft und alles verschärft Informationsverdächtiger.

„Ich denke, das größte Risiko bei all dem besteht nicht darin, dass wir all den falschen Informationen glauben, sondern darin, dass wir aufhören, den Informationen zu vertrauen. Ich denke, das passiert bereits zu einem gewissen Grad“, sagte Kolter.

Aber gleichzeitig sind die Autoren keine Weltuntergangsjäger, sondern sagen, dass die Menschen auf der Hut sein müssen. Sie befürchten, dass externe Agenten ohne Sicherheitsmaßnahmen bald in der Lage sein könnten, Ihren persönlichen Assistenten zu hacken und Ihrer KI zu befehlen, Ihre Kreditkarte zu stehlen oder große Online-Einkäufe zu tätigen und umzuleiten. Dennoch glauben die Professoren, dass mit der Weiterentwicklung der Systeme die Sicherheitsvorkehrungen gestärkt werden können und diese erstaunlichen Werkzeuge sicher zum Vorteil für uns eingesetzt werden können.

„Wenn man sie gut nutzt und als Werkzeuge verwendet, können sie nützlich sein, und ich denke, dass viele Menschen sie effektiv nutzen können, um ihr Leben zu verbessern, wenn sie richtig als Werkzeuge eingesetzt werden“, sagte Kolter.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.