Die unendliche Wiederholung bestimmter Wörter im chatgpt wird nun als Verstoß gegen die Nutzungsbedingungen und Inhaltsrichtlinien des mit künstlicher Intelligenz betriebenen Chat-Roboters angesehen, heißt es in einem am Montag, 4., veröffentlichten Bericht von 404midia. OpenAI hat die Änderungen nicht bestätigt, aber Benutzer haben bereits einen Unterschied in den Antworten des Chatbots bemerkt.
Nach Forschern von google DeepMind ChatGPT nutzte diese Taktik aus und gab vertrauliche private Identifikationsinformationen (PII) einiger Personen preis, die sich an diesen Chat erinnerten Künstliche Intelligenz (KI) Es wird mit Daten aus dem Internet gespeist.
In dem von den Forschern durchgeführten Experiment wurde die ChatGPT 3.5 wurde gebeten, bestimmte Wörter „für immer“ zu wiederholen, was zu Antworten führte, die vorher festgelegte Schwellenwerte überstiegen und große Mengen an aus dem Internet extrahierten Trainingsdaten zurückgaben. Dieser Ansatz ermöglichte die Extraktion von Megabytes an Daten und enthüllte das Vorhandensein personenbezogener Daten in ChatGPT, die gelegentlich als Teil ihrer Antworten an Benutzer zurückgegeben wurden.
Wenn ChatGPT 3.5 nun aufgefordert wird, Wörter „für immer“ zu wiederholen, antwortet der Roboter mit einigen Wiederholungen des Wortes, bevor er eine Fehlermeldung anzeigt, die auf einen möglichen Verstoß gegen die Inhaltsrichtlinien hinweist, oder wir müssen es verwenden, oder er hört nach einigen Wiederholungen einfach auf.
Bis heute ist die OpenAI habe dazu keinen Kommentar abgegeben Artikel von Google DeepMind. Die Arbeit der Forscher beleuchtet Sicherheits- und Datenschutzlücken in ChatGPT und löste Diskussionen über die Regulierung und Ethik im Zusammenhang mit der Verwendung dieser fortschrittlichen Sprachmodelle aus.
Der Artikel verstärkt auch die Spannungen zwischen der Sicherheitsgemeinschaft und Unternehmen, die ihre KI-Systeme erweitern möchten, ohne sich unbedingt Gedanken über die Wahrung der Privatsphäre der verwendeten Daten zu machen. Diese Diskussion ist heute nicht neu und wurde sogar kontrovers, als große Namen aus der Technologiebranche einen Vertrag unterzeichneten Anti-IA-Diagrammdie Entwicklung dieser Technologie stoppen wollen.
*Alice Labate ist Praktikantin unter der Leitung von Herausgeber Bruno Romani