In einem internen Memo warnte das Unternehmen seine Mitarbeiter vor der Nutzung von chatgpt, nachdem ein Sicherheitsleck darauf zurückgeführt werden konnte, dass ein Mitarbeiter vertrauliche Unternehmenscodes auf der Plattform weitergab.

Samsung ist auch nicht allein – viele andere Unternehmen, darunter auch apple, haben es getan ChatGPT verboten für bestimmte Mitarbeiter und Abteilungen.

Wenn Sie für die Offenlegung der sensiblen Daten Ihres Unternehmens verantwortlich sind, kann es sein, dass Sie ein sehr unangenehmes Gespräch mit der Personalabteilung führen oder, noch schlimmer, entlassen werden.

2. Kreative Werke und geistiges Eigentum

Sie haben den nächsten großen amerikanischen Roman geschrieben und möchten, dass ChatGPT ihn überarbeitet? Stoppen. Teilen Sie Ihre ursprüngliche kreative Arbeit niemals mit Chatbots, es sei denn, Sie sind damit einverstanden, dass sie möglicherweise mit allen anderen Benutzern geteilt wird.

Tatsächlich sind selbst urheberrechtlich geschützte Woks nicht sicher. Chatbots wie ChatGPT sind derzeit in eine Reihe von Rechtsfällen unter anderem verwickelt Sarah Silverman und George RR Martin, der ihnen vorwarf, ihre großen Sprachmodelle (LLMs) auf ihren veröffentlichten Schriften zu trainieren.

Ihre nächste großartige Idee könnte durchaus in den ChatGPT-Ergebnissen eines Fremden auftauchen, daher empfehlen wir Ihnen, sie für sich zu behalten.

3. Finanzinformationen

Genauso wie Sie Ihre Bank- oder Sozialversicherungsnummer nicht in einem öffentlichen Online-Forum hinterlassen würden, sollten Sie sie auch nicht in ChatGPT eingeben.

Es ist in Ordnung, die Plattform nach Finanztipps, Budgethilfen oder sogar Steuerberatung zu fragen, aber geben Sie niemals Ihre sensiblen Finanzinformationen ein. Dadurch könnten Ihre privaten Bankdaten offengelegt und einem Missbrauch ausgesetzt werden.

Siehe auch  ChatGPT erklärt, warum diese Ethereum, Tradecurve und XRP zum Erfolg bestimmt sind

Es ist auch äußerst wichtig, wachsam zu sein gefälschte KI-Chatbot-Plattformen Dies könnte dazu dienen, Sie zur Weitergabe solcher Daten zu verleiten.

4. Persönliche Daten

Ihr Name, Ihre Adresse, Ihre Telefonnummer, sogar der Name Ihres ersten Haustieres … alles große Nein-Nein, wenn es um ChatGPT geht.

Persönliche Daten wie diese können dazu ausgenutzt werden, sich als Sie auszugeben, was Betrüger nutzen könnte, um private Konten zu infiltrieren oder Betrügereien durchzuführen – keine guten Nachrichten für Sie.

Widerstehen Sie also der Versuchung, Ihre Lebensgeschichte in ChatGPT zu veröffentlichen, und wenn Sie entschlossen sind, Ihre Autobiografie für Sie schreiben zu lassen, überlegen Sie sorgfältig, was Sie teilen.

5. Benutzernamen und Passwörter

Es gibt nur einen Ort, an dem Sie Passwörter aufschreiben sollten, und zwar die App oder Website, die sie benötigt. Best Practices besagen, dass die Speicherung unverschlüsselter Passwörter an anderer Stelle Sie angreifbar machen könnte.

Wenn Sie also nicht möchten, dass Ihre Passwörter öffentlich zugänglich werden, empfehlen wir Ihnen, der Versuchung zu widerstehen, ChatGPT dazu zu bringen, alle Ihre Passwörter an einem Ort aufzuzeichnen, um sie leichter auffindbar zu machen, oder es vielleicht zu bitten, Ihnen stärkere Passwörter vorzuschlagen .

Wenn Sie Schwierigkeiten haben, sich Ihre Passwörter zu merken (und seien wir ehrlich, das haben wir alle), dann a Passwortmanager ist ein großartiges Tool, das Ihnen das gleichzeitige Jonglieren mit mehreren Passwörtern erleichtert.

Wenn Sie Ihre vorhandenen Passwörter testen möchten, gibt es viele davon kostenlose, sichere Tools Das kann das für Sie tun.

6. ChatGPT-Chats

Okay, wir geben zu, dass dies ein leichtes Oxymoron ist und es sehr schwierig wäre, ChatGPT zu verwenden, ohne tatsächlich mit ihm zu sprechen, aber es zeigt hervorragend die Gefahr auf, absolut alles in ChatGPT einzugeben.

Siehe auch  Die 80 besten ChatGPT-Eingabeaufforderungen für Unternehmen

Ja, sogar Ihre eigenen ChatGPT-Anfragen konnten mit anderen geteilt werden, und das ist in der Vergangenheit auch vorgekommen.

In letzter Zeit gab es sogar Fälle, in denen ein Fehler dafür verantwortlich war ChatGPT-Benutzer sahen Chats die andere Nutzer mit dem Chatbot durchgeführt hatten.

Es gibt auch Hinweise darauf, dass der Bard-Chatbot von google Chats mit Nutzern indiziert hat, sodass sie für jedermann online leicht auffindbar sind.

In beiden Fällen versprachen die Unternehmen, die Probleme zu beheben, aber es zeigt, wie schnell die Technologie voranschreitet und dass nichts, nicht einmal die Anfragen, die Sie auf der Plattform stellen, als privat angesehen werden können. Es lohnt sich, dies im Hinterkopf zu behalten, wenn Sie mit einem Chatbot kommunizieren.

5/5 - (257 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein