Lebensstil
chatgpt ist keine beste Freundin.
Ein Informatikprofessor an der Universität Oxford hat Alarm geschlagen und erklärt, warum es eine schreckliche Idee ist, persönliche Informationen und tiefe, dunkle Geheimnisse mit Sprachlernmodellen wie ChatGPT anzuvertrauen.
„Die Technologie ist im Wesentlichen darauf ausgelegt, Ihnen zu sagen, was Sie hören möchten – das ist buchstäblich alles, was sie tut“, Mike Woolridge sagte der Daily Mail. „Es hat kein Einfühlungsvermögen. Es hat kein Mitgefühl.“
Auch wenn die von Menschen trainierten künstlichen Intelligenzen in ihren Antworten mitunter authentische Emotionen widerspiegeln, sollten sich Benutzer nicht von einem scheinbar sympathischen Cyber-Ohr täuschen lassen.
„Das ist absolut nicht das, was die Technologie tut, und das Entscheidende ist, dass sie noch nie etwas erlebt hat“, fügte er hinzu.
Was noch schlimmer sei, warnte Wooldridge: Benutzer sollten sich mehr Gedanken darüber machen, wohin ihre innersten Vertraulichkeiten tatsächlich gehen.
„Sie sollten davon ausgehen, dass alles, was Sie in ChatGPT eingeben, direkt in zukünftige Versionen von ChatGPT eingespeist wird“, sagte er.
Daher sei es „extrem unklug, auf ChatGPT persönliche Gespräche zu führen, sich über die Beziehung zu Ihrem Chef zu beschweren oder Ihre politische Meinung zu äußern“, sagte er.
Im Cyberspace gibt es schließlich keine Widerrufe.
Abgesehen davon, dass Informationen in zukünftige Trainingsdaten eingearbeitet wurden, gab es auch Fälle, in denen private Chatverläufe versehentlich ausgenutzt wurden.
Letzten März, Schätzungsweise 1,2 Millionen Nutzer sahen, dass ihre vorherigen Eingabeaufforderungen aufgrund eines massiven Fehlers offengelegt wurden.
Italien ChatGPT vorübergehend gesperrt wegen der Datenpanne vom Staat ausgeschlossen.
Danach wurde OpenAI, die Muttergesellschaft von ChatGPT, implementiert Möglichkeiten zum Deaktivieren des Chatverlaufs – Benutzerdaten werden jedoch noch 30 Tage nach der Tat gespeichert.
OpenAI werde sie „nur bei Bedarf überprüfen, um sie auf Missbrauch zu überwachen, bevor sie endgültig gelöscht werden“, erklärte das zu Microsoft gehörende Unternehmen damals.
Noch fast ein Jahr später fürchten Experten die Risiken, die mit einem mangelnden Schutz der Nutzerdaten einhergehen.
Diesen Monat, Sicherheitsforscher Johann Rehberger markierte „eine bekannte Sicherheitslücke bei der Datenexfiltration“, die weiterhin in ChatGPT besteht, während OpenAI versucht, das eklatante Problem zu beheben.
„Die Datenexfiltrations-Schwachstelle wurde erstmals Anfang April 2023 an OpenAI gemeldet, blieb jedoch unbehandelt“, schrieb er und fügte hinzu, dass endlich Maßnahmen ergriffen würden – auch wenn noch keine endgültige Lösung gefunden wurde.
„Es ist keine perfekte Lösung.“
Mehr laden…
{{#isDisplay}} {{/isDisplay}}{{#isAniviewVideo}}