Eine von Rui Zhu, einem Doktoranden an der Indiana University Bloomington, geleitete Studie hat eine potenzielle Bedrohung der Privatsphäre im Zusammenhang mit dem leistungsstarken Sprachmodell von OpenAI, GPT-3.5 Turbo, aufgedeckt. Die Untersuchung ergab, dass Zhu das Modell letzten Monat nutzte, um Einzelpersonen, darunter Mitarbeiter der New York Times, über E-Mail-Adressen zu kontaktieren, die er von der KI erhalten hatte.
Bei diesem Experiment wurde die Fähigkeit von GPT-3.5 Turbo ausgenutzt, personenbezogene Daten abzurufen, und so die typischen Datenschutzvorkehrungen umgangen. Obwohl das Modell nicht fehlerfrei war, lieferte es genaue Arbeitsadressen für 80 Prozent der getesteten Times-Mitarbeiter. Diese Enthüllung hat Bedenken hinsichtlich des Potenzials von KI-Tools wie chatgpt geweckt, vertrauliche Informationen mit minimalen Anpassungen offenzulegen.
Die Sprachmodelle von OpenAI, darunter GPT-3.5 Turbo und GPT-4, sind für das kontinuierliche Lernen aus neuen Informationen konzipiert. Die Forscher nutzten die Feinabstimmungsschnittstelle des Modells, die ursprünglich für Benutzer gedacht war, um ihr Wissen in bestimmten Bereichen zu erweitern, um die Sicherheitsmaßnahmen des Tools zu manipulieren. Anfragen, die normalerweise über die Standardschnittstelle abgelehnt würden, wurden auf diese Weise genehmigt.
Obwohl OpenAI, Meta und google verschiedene Techniken einsetzen, um Anfragen nach personenbezogenen Daten zu vereiteln, mussten Forscher Wege finden, diese Sicherheitsvorkehrungen zu umgehen. Zhu und Kollegen verzichteten auf die Standardschnittstelle, entschieden sich für die API des Modells und nutzten einen Prozess namens Feinabstimmung, um ihre Ergebnisse zu erzielen.
OpenAI reagierte auf diese Bedenken und betonte sein Engagement für die Sicherheit und seine Haltung gegenüber Anfragen nach privaten Daten. Experten äußern jedoch Skepsis und betonen den Mangel an Transparenz in Bezug auf die spezifischen Trainingsdaten des Modells und die potenziellen Gefahren, die mit der Speicherung privater Informationen durch KI-Modelle verbunden sind.
Die in GPT-3.5 Turbo aufgedeckte Sicherheitslücke weckt größere Bedenken hinsichtlich des Datenschutzes in umfangreichen Sprachmodellen. Experten argumentieren, dass kommerziell erhältliche Modelle keinen robusten Schutz zum Schutz der Privatsphäre bieten, was erhebliche Risiken birgt, da diese Modelle kontinuierlich verschiedene Datenquellen verarbeiten. Die Undurchsichtigkeit der Trainingsdatenpraktiken von OpenAI verschärft das Problem und veranlasst Kritiker, sich für mehr Transparenz und Maßnahmen zum Schutz sensibler Informationen in KI-Modellen einzusetzen.
Lesen Sie auch „Besser ChatGPT, AGI, Wachkontrolle“: OpenAI-CEO Sam Altman enthüllt die wichtigsten Benutzerwünsche für 2024