Die unendliche Wiederholung bestimmter Wörter im chatgpt wird nun als Verstoß gegen die Nutzungsbedingungen und Inhaltsrichtlinien des mit künstlicher Intelligenz betriebenen Chat-Roboters angesehen, heißt es in einem am Montag, 4., veröffentlichten Bericht von 404midia. OpenAI hat die Änderungen nicht bestätigt, aber Benutzer haben bereits einen Unterschied in den Antworten des Chatbots bemerkt.

Nach Forschern von google DeepMind ChatGPT nutzte diese Taktik aus und gab vertrauliche private Identifikationsinformationen (PII) einiger Personen preis, die sich an diesen Chat erinnerten Künstliche Intelligenz (KI) Es wird mit Daten aus dem Internet gespeist.

In dem von den Forschern durchgeführten Experiment wurde die ChatGPT 3.5 wurde gebeten, bestimmte Wörter „für immer“ zu wiederholen, was zu Antworten führte, die vorher festgelegte Schwellenwerte überstiegen und große Mengen an aus dem Internet extrahierten Trainingsdaten zurückgaben. Dieser Ansatz ermöglichte die Extraktion von Megabytes an Daten und enthüllte das Vorhandensein personenbezogener Daten in ChatGPT, die gelegentlich als Teil ihrer Antworten an Benutzer zurückgegeben wurden.

ChatGPT ergreift Sicherheitsmaßnahmen, nachdem Datenlecks immer wieder aufgedeckt wurden

Foto: Alice Labate/Estadão / Estadão

Wenn ChatGPT 3.5 nun aufgefordert wird, Wörter „für immer“ zu wiederholen, antwortet der Roboter mit einigen Wiederholungen des Wortes, bevor er eine Fehlermeldung anzeigt, die auf einen möglichen Verstoß gegen die Inhaltsrichtlinien hinweist, oder wir müssen es verwenden, oder er hört nach einigen Wiederholungen einfach auf.

Bis heute ist die OpenAI habe dazu keinen Kommentar abgegeben Artikel von Google DeepMind. Die Arbeit der Forscher beleuchtet Sicherheits- und Datenschutzlücken in ChatGPT und löste Diskussionen über die Regulierung und Ethik im Zusammenhang mit der Verwendung dieser fortschrittlichen Sprachmodelle aus.

Siehe auch  Wie ChatGPT und Google Bard Ihr Leben einfacher machen können | von hejrene | Rene | Dez. 2023

Der Artikel verstärkt auch die Spannungen zwischen der Sicherheitsgemeinschaft und Unternehmen, die ihre KI-Systeme erweitern möchten, ohne sich unbedingt Gedanken über die Wahrung der Privatsphäre der verwendeten Daten zu machen. Diese Diskussion ist heute nicht neu und wurde sogar kontrovers, als große Namen aus der Technologiebranche einen Vertrag unterzeichneten Anti-IA-Diagrammdie Entwicklung dieser Technologie stoppen wollen.

*Alice Labate ist Praktikantin unter der Leitung von Herausgeber Bruno Romani

5/5 - (182 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein