[ad_1]
Laut Forschern der University of North Carolina gibt es tatsächlich keine sichere Möglichkeit, Daten zu löschen, die die großen Sprachmodelle in ihrem Training gelernt haben.
möglicherweise vertrauliche Informationen preisgeben, von denen sie erfahren haben. Das LLMS hinter dem kreativen Tool für künstliche Intelligenz.Foto: Computerverarbeitung. Quelle: Shutterstock
Große Sprachmodelle (LLMs) stehen hinter den Fähigkeiten der generativen künstlichen Intelligenz (GenAI), die wir über Tools wie chatgpt nutzen OpenAIBarde (Barde) aus Beit googleClaude (Claude), der sich entwickelt hat anthropisch, und andere. Diese Modelle sind vorab anhand riesiger Datenmengen trainiert und verfügen manchmal über Wissen, das besser „vergessen“ werden sollte, darunter wichtige persönliche Informationen und Informationen, die zum Schaden von Menschen genutzt werden können. Basierend auf dem, was sie gelernt haben, können diese Chatbots auch giftige oder schädliche Inhalte produzieren.
Drei Wissenschaftler ausUniversität von North Carolina Sie haben kürzlich eine Studie zum Thema Künstliche Intelligenz veröffentlicht, deren Ergebnisse zeigen, wie schwierig es ist, sensible Daten aus LLMs zu entfernen, nachdem sie es gelernt haben. Laut einem von den Forschern veröffentlichten Artikel ist die Aufgabe, Informationen aus LLMs zu „löschen“, wahrscheinlich möglich, aber es ist schwierig zu überprüfen, ob die Informationen tatsächlich entfernt wurden, ebenso wie es schwierig ist, sie tatsächlich zu entfernen.
Die „Black Box“ der KI
Die Forscher warnten außerdem ausdrücklich davor, dass LLMs ein hohes Potenzial für die Generierung sensibler Informationen wie personenbezogener Daten (PII) oder Finanzunterlagen haben. Wie bereits erwähnt, sei es zwar offenbar möglich, von den Modellen erlernte Informationen zu löschen, da diese LLMs auf riesigen Datensätzen trainiert würden und ihre interne Funktionsweise komplex und undurchsichtig sei, was es für Entwickler jedoch schwierig mache, bestimmte Informationen zu identifizieren und zu entfernen Informationen, die die Modelle verinnerlicht haben.
Nach dem Training eines Modells können dessen Ersteller beispielsweise nicht zur Datenbank zurückkehren und bestimmte Dateien löschen, um zu verhindern, dass GenAI damit verbundene Ergebnisse liefert. Im Wesentlichen befinden sich alle Informationen, auf denen die Modelle trainiert werden, irgendwo in ihrer Wissensbasis, aus der das Modell möglicherweise auch Inhaltsausgaben erstellt, die Informationen enthalten, die seine Produkte überhaupt nicht erreichen sollten. Die Forscher nannten dieses Phänomen die „Black Box“ der KI.
Diese Unfähigkeit der LLMs und die Schaffung künstlicher Intelligenz, Informationen selektiv zu „vergessen“, bringen laut den Autoren der Studie erhebliche Risiken für den Datenschutz und die Ethik mit sich, insbesondere wenn die Modelle zunehmend in sensiblen Sektoren eingesetzt und eingesetzt werden, z wie Finanzen, Gesundheit und Technologie. Das heißt, wenn eine Bank beispielsweise mit künstlicher Intelligenz arbeitet, um Erkenntnisse aus ihren Berichten abzuleiten, untersucht das Modell hinter dem Tool die Daten und Sie wissen nicht, wo, wann und wie es entscheidet, sie „abzurufen“ und sie so offenzulegen vertrauliche Informationen an die Welt.
Darüber hinaus wurde in der Studie zumindest scheinbar klargestellt, dass das Problem des Auffindens und Eliminierens unerwünschter Daten in einem großen Sprachmodell wie GPT-3.5 exponentiell gravierender ist als in einem kleineren Modell.
Und was ist mit den Versuchen böswilliger Akteure, sensible Informationen aus den Chatbots zu extrahieren und zu ihrem eigenen Vorteil zu nutzen? In diesem Zusammenhang ist es interessant festzustellen, dass die Forscher berichteten, dass sie tatsächlich neue Schutzmethoden entwickeln konnten, um die LLMs vor mehreren „Extraktionsangriffen“ zu schützen, bei denen Hacker versuchen, die Sicherheitsmechanismen des Modells zu umgehen, um sensible Informationen zu produzieren. Andererseits, so schreiben die Forscher, könnte sich das von ihnen aufgedeckte Problem der Löschung sensibler Informationen aus den Modellen „zu einem Problem entwickeln, bei dem die Abwehrmethoden den neuen Angriffsmethoden stets ‚aufholen‘“.
[ad_2]