Der ERWEITERTE Chatbot chatgpt kann geheime Informationen von Benutzern preisgeben, wenn diese nicht vorsichtig sind.

ChatGPT wurde von OpenAI entwickelt und ist ein Chatbot in natürlicher Sprache, der auf künstlicher Intelligenz basiert.

Der fortschrittliche Chatbot ChatGPT kann geheime Informationen von Benutzern preisgeben, wenn diese nicht vorsichtig sindBildnachweis: Getty

ChatGPT kann viele Aufgaben wie das Beantworten von Eingabeaufforderungen, das Schreiben von Aufsätzen und sogar das Generieren von komplexem Code in Sekundenschnelle erledigen.

Jetzt äußern sich Experten darüber, welche Art von Informationen Benutzer in den Chatbot eingeben.

Mike Wooldridge, Professor für KI an der Universität Oxford, sagte dem Tägliche Post dass es äußerst unklug ist, private Informationen mit ChatGPT zu teilen.

ChatGPT kann hochsensible Details aus den Eingabeaufforderungen und Antworten der Benutzer sammeln und verarbeiten.

Diese Informationen können dann mit der E-Mail-Adresse und Telefonnummer eines Benutzers verknüpft und gespeichert werden.

Denn um die Plattform nutzen zu können, müssen Nutzer sowohl eine E-Mail-Adresse als auch eine Mobiltelefonnummer angeben.

Und Benutzer können dies nicht umgehen, indem sie wegwerfbare oder maskierte E-Mail-Adressen und Telefonnummern verwenden.

Dadurch ist ChatGPT fest mit Ihrer Online-Identität verknüpft, da es alles aufzeichnet, was Sie eingeben.

Wooldridge ist mit seinen Bedenken hinsichtlich des Datenschutzes bei der Nutzung von ChatGPT nicht der Einzige.

Zahlreiche Experten haben sich zu den potenziellen Gefahren von ChatGPT geäußert.

Anfang des Jahres erläuterte der Technikjournalist Glyn Moody in einem Blogbeitrag für Private Internet Access seine Bedenken gegenüber ChatGPT.

„Eines der größten Probleme bei ChatGPT betrifft Ihre Privatsphäre und fast niemand spricht darüber“, schrieb Moody.

„[ChatGPT] „Sie können viel über Ihre Interessen, Überzeugungen, Obsessionen und Sorgen erfahren – schließlich handelt es sich um ein äußerst leistungsfähiges maschinelles Lernsystem“, sagte der Reporter.

Siehe auch  Studie: ChatGPT war bei der Erkennung von Fälschungen zu 99 % genau – Panorama

Und weil das System einen Konversationsdialog führen kann, vergessen die Leute manchmal, dass es sich um ein KI-System handelt.

„Dadurch geben Sie möglicherweise Dinge preis, die Sie niemals in eine Suchmaschine eingeben würden … und all diese persönlichen Fakten sind jetzt mit Ihrer E-Mail-Adresse und Ihrer Telefonnummer verknüpft“, bemerkte Moody.

Darüber hinaus kann ChatGPT aufgrund der Art und Weise, wie Daten gesammelt werden, riesige Datenquellen durchsuchen, um Dinge zu finden, die Menschen über viele Jahre hinweg geschrieben oder gesagt haben.

„Ein Großteil der Stärke von ChatGPT liegt in seiner Fähigkeit, all diese unterschiedlichen Eingaben zusammenzuführen und sie in einem bisher unpraktischen Maßstab zu analysieren“, sagt Moody.

„Sie sollten davon ausgehen, dass alles, was Sie in ChatGPT eingeben, direkt in zukünftige Versionen von ChatGPT eingespeist wird“, sagte Woolbridge.

Wooldridge fügte hinzu, dass ChatGPT auch „kein Einfühlungsvermögen … und kein Mitgefühl“ habe, was das Tool für Benutzer gefährlicher mache.

„Die Technologie ist im Wesentlichen darauf ausgelegt, Ihnen zu sagen, was Sie hören möchten – das ist buchstäblich alles, was sie tut“, sagte er.

OpenAI rät seinen Millionen täglicher Nutzer in seinen FAQ, „keine sensiblen Informationen in ihren Gesprächen“ weiterzugeben.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein