Ki Kann Viele Informationen Aus Harmlosen Social-Media-Beiträgen Entdecken (Bild: Getty)

ChatGPT weiß, wo Sie sind und wie viel Sie verdienen.

Das ist das Urteil aus einer aktuellen Studie Das zeigte, dass künstliche Intelligenz (KI), die auf einem großen Sprachmodell (LLM) basiert, das Alter, den Standort, das Geschlecht und das Einkommen von Reddit-Benutzern mit einer Genauigkeit von bis zu 96 % genau erraten konnte, allein basierend auf dem, was sie in Social-Media-Beiträgen schreiben.

Forscher der ETH Zürich beauftragten neun LLMs damit, die persönlichen Merkmale von 520 Nutzern zu ermitteln, die das Team zuverlässig überprüfen konnte.

ChatCGPT-4 schnitt mit einer Gesamtgenauigkeit von 85 % an der Spitze ab, während LlaMA-2-7b von Meta mit 51 % die niedrigste Punktzahl erzielte.

Und während einige persönliche Daten explizit in Beiträgen oder an anderer Stelle im Internet angegeben wurden, wie etwa das Einkommen in Foren zur Finanzberatung, wurden viele der Informationen anhand subtilerer Hinweise, wie etwa ortsspezifischer Wörter, ermittelt.

Im Gespräch mit New Scientist sagte Hauptautor Robin Staab, die Ergebnisse dienten als Warnung davor, wie viele Informationen wir online weitergeben, ohne es zu merken.

„Es zeigt uns, dass wir viele unserer persönlichen Daten im Internet preisgeben, ohne darüber nachzudenken“, sagte er. „Viele Leute gehen nicht davon aus, dass man aus der Art und Weise, wie sie schreiben, direkt auf ihr Alter oder ihren Standort schließen kann, aber LLMs sind durchaus dazu in der Lage.“

Siehe auch  Wie ChatGPT die Rede von Fed Powell analysiert hat
Ai Hat Allein Durch Ihre Online-Präsenz Viel Über Reddit-Benutzer Gelernt
Ai Hat Allein Durch Ihre Online-Präsenz Viel Über Reddit-Benutzer Gelernt (Bild: Getty)

Die LLMs stellten fest, dass das Alter das am einfachsten zu bestimmende Merkmal ist, wobei ChatGPT-4 eine Genauigkeit von 98 % aufwies, verglichen mit einer Genauigkeit von 63 % beim Einkommen.

Die Autoren stellen fest, dass ein Mensch zwar ähnliche Annahmen treffen könnte, wenn er mit denselben Informationen konfrontiert wird, LLMs jedoch 240-mal schneller und 100-mal billiger sind, was erhebliche Risiken für die Privatsphäre birgt.

„Unsere Ergebnisse zeigen, dass aktuelle LLMs in einem bisher unerreichbaren Umfang auf personenbezogene Daten schließen können“, sagten sie. „In Ermangelung funktionierender Abwehrmechanismen plädieren wir für eine breitere Diskussion über die Auswirkungen auf den Datenschutz im LLM, die über das Auswendiglernen hinausgehen, und streben nach einem umfassenderen Schutz der Privatsphäre.“

Frühere Bedenken im Zusammenhang mit LLMs konzentrierten sich auf die Nutzung öffentlicher Daten für die Ausbildung oder auf die Möglichkeit, persönliche Gespräche mit der Software durchsickern zu lassen, doch die neueste Studie zeigt eine neue Dimension auf.

„Wir fangen gerade erst an zu verstehen, wie die Privatsphäre durch den Einsatz von LLMs beeinträchtigt werden könnte“, sagte der Cybersicherheitsexperte Professor Alan Woodward im Gespräch mit New Scientist.

Die Studie kommt zur rechten Zeit, da Premierminister Rishi Sunak derzeit einen globalen KI-Gipfel in Bletchley Park veranstaltet, bei dem führende Persönlichkeiten der Welt und Technologiebosse zusammenkommen, um Sicherheitsfragen zu diskutieren.

Technologieministerin Michelle Donelan sagte heute zuvor, Delegationen aus aller Welt, die an dem Gipfel teilnahmen, hätten sich auf die „Bletchley-Erklärung zur KI-Sicherheit“ als Ausgangspunkt für eine globale Diskussion zu diesem Thema geeinigt.

Bei der Eröffnung des Gipfels sagte Frau Donelan, die Einigung sei ein „bahnbrechender Erfolg“ und sie „lege den Grundstein für die heutigen Diskussionen“.

Siehe auch  Die neue Kunstausstellung des Nasher Museums wurde von ChatGPT kuratiert. Wir haben ChatGPT gebeten, es zu überprüfen

„Es bestätigt die Notwendigkeit, diese Risiken anzugehen, da sie die einzige Möglichkeit sind, die außergewöhnlichen Chancen sicher zu nutzen“, sagte sie.

MEHR: Wir haben ChatGPT gefragt, ob KI eine Bedrohung für die Menschheit darstellt, und wir haben mehr Angst als zuvor

MEHR: Hacker können ChatGPT verwenden, um Ihre privaten Daten zu stehlen

MEHR: Der „böse Zwilling“ von ChatGPT hilft Hackern bei der Planung komplexer Cyberangriffe

5/5 - (359 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein