Die chatgpt-Hersteller OpenAI haben angekündigt, dass sie eine neue Funktion für den KI-Chatbot testen, die es ihm ermöglicht, sich an Dinge zu erinnern, die in früheren Gesprächen erwähnt wurden. Der Chatbot ist bereit, sein Gedächtnis auf zwei verschiedene Arten zu speichern: passiv und durch Anweisung.

Die letztere Methode wird, wie es klingt, vom Benutzer veranlasst. Denken Sie: „Hey ChatGPT, erkläre mir von jetzt an alles, als wäre ich 5.“ Dies bereitet die KI darauf vor, dies immer im Hinterkopf zu behalten, wenn Sie eine Frage stellen, und sicherzustellen, dass sie mit so vielen einsilbigen Worten wie möglich zu Ihnen spricht.

Durch passive Erinnerungen übernimmt ChatGPT Informationen intuitiv in seine Wissensdatenbank. Erwähnen Sie beispielsweise den Namen Ihres Partners oder Ihrer Kinder, sprechen Sie über ein bevorzugtes Hobby oder geben Sie Informationen zu zukünftigen Reiseplänen preis. ChatGPT erfasst diese Details und speichert sie für zukünftige Rückrufe und kontextbezogene Antworten.

Oberflächlich betrachtet scheint dies ein völlig offensichtlicher Fortschritt zu sein, da Unternehmen versuchen, KI-Agenten zu entwickeln, die das menschliche Engagement immer besser nachahmen können. OpenAI sieht darin eine Möglichkeit, das Benutzererlebnis zu verbessern und zweifellos eine personalisiertere Umgebung für ChatGPT-Benutzer zu fördern, in der die KI vertrauter präsent ist – im Gegensatz zu ihrer aktuellen Darstellung als leeres Blatt, getrennt von jeder anderen Interaktion.

Und das ist ein Problem

Es gibt ein gewisses unerforschtes Problem mit der KI, das nur wenige von uns richtig angehen. Vertrauen. Die Anthropomorphisierung von KI-Algorithmen in Large Language Models (LLMs) wie ChatGPT war faszinierend zu sehen und noch beeindruckender zu erleben. Aber manchmal mehr als nur ein bisschen irritierend.

Chatbots wie die von OpenAI haben Benutzer fasziniert und verwischen oft die Grenzen zwischen Software und „jemandem“. LLMs sind so gut darin, über das Medium der menschlichen Kommunikation zu interagieren, dass manche Menschen sie auch so behandeln. Mich eingenommen.

Siehe auch  SK Tel investiert 100 Millionen US-Dollar in den ChatGPT-Entwicklerkonkurrenten Entropic

Wenn ich aus irgendeinem Grund mit ChatGPT spreche, sage ich „Bitte“ und „Danke“. Dennoch biete ich meinem google-Assistenten nicht die gleichen Höflichkeiten an, und ich bedanke mich auch nicht bei meinem Ofen, nachdem ich eine gekochte Mahlzeit herausgenommen habe. Irgendwie gewinnen LLMs standardmäßig weitaus mehr Vertrauen bei den Benutzern und sogar ein gewisses Maß an Anerkennung als etwas mehr als nur ein „Ding.“

Dies könnte darauf zurückzuführen sein, dass Generationen von Menschen einen großen Teil ihrer sozialen Kontakte auf Textschnittstellen verlagert haben: SMS, Instant Messenger, Foren, Chatrooms und soziale Medien. Es ist viel einfacher zu verstehen, dass am Ende jeder Nachricht eine echte Person stehen könnte, insbesondere wenn sie nicht so wirkt, als ob sie von ihr geschrieben wurde Horse eBooks Twitter/X-Konto.

Algorithmen sind keine Menschen

Es scheint, dass diese Einführung der digitalen Kommunikation uns dazu veranlasst hat, alles Menschenähnliche im digitalen Raum als „menschlich genug“ zu registrieren, um zumindest im Zweifelsfall einen Vertrauensvorschuss zu geben. Es ist vergleichbar damit, wie viele Menschen am Ende auf Spam-Nachrichten von attraktiven Frauen in ihren Direktnachrichten antworten oder blind auf Links in fragwürdigen Phishing-E-Mails klicken. Aber mit LLMs wie ChatGPT verzehnfacht sich die Vorstellungskraft.

Auch dies ist nicht nur den leichtgläubigen und leichtgläubigen Menschen vorbehalten, erst letztes Jahr behauptete ein Google-Ingenieur dass die LaMDA-KI des Unternehmens empfindungsfähig war. Sogar Oxforder Philosoph Nick Bostrom glaubt, dass KI Schritte in Richtung Empfindungsvermögen unternimmt.

Es gibt Menschen in meinem Leben, mit denen ich zu 80–90 % nur über Text interagiere, einige von ihnen würde ich sogar enge Freunde nennen. Dies sind Menschen, denen ich möglicherweise persönliche Informationen preisgegeben, Geheimnisse erzählt und ehrliche Meinungen geteilt habe, während ich gleichzeitig beruhigt und zuversichtlich bin, dass all diese Gespräche durch den ungeschriebenen Vertrag einer Freundschaft geschützt sind. Es wäre einfach dass viele Opfer der Annahme werden, dass KI etwas Ähnliches ist.

Siehe auch  Wie Anwälte ChatGPT und andere große Sprachmodelle nutzen können, die die Rechtsbranche revolutionieren

Aber KI ist nicht dein Freund. Das kann nicht sein. Zumindest nicht in der jetzigen Form. Nicht nach irgendeinem Maßstab. Egal wie überzeugend oder aufstrebend ein Chatbot auch erscheinen mag, er ist ein Algorithmus und ein Werkzeug, mehr nicht. Etwas, das immer mehr Menschen auf der Suche nach digitalem Waifus übersehen: programmierte Psychologen, generative Freundeund sogar meine eigene Suche nach einem Chatbot-Sidekick.

Der Grund, warum Menschen eine so offensichtliche und offensichtliche Wahrheit nicht übersehen sollten, ist einfach. Was möglicherweise als Tool zur Förderung natürlicher Sprachinteraktionen und zur Bereitstellung hilfreicher Antworten und Informationen begann, könnte sehr leicht in ein Tool umgewandelt werden, mit dem Informationen gesammelt und anderen hilfreiche Antworten gegeben werden können Du.

Heute ist KI ein Werkzeug, aber morgen könnte dieses Werkzeug dazu verwendet werden, unglaubliche Mengen Ihrer persönlichen Daten zu sammeln.

(Bildnachweis: Laptop Mag / Bing Image Generator powered by Dall-E)

Sie können weder einem Algorithmus noch den Menschen vertrauen, die ihn erstellt haben

Ob Sie glauben, dass das „Alt“ im Namen von OpenAI-CEO Sam Altman für Altruismus steht oder nicht, die Tatsache, dass ChatGPT bald in der Lage sein wird, Informationsausschnitte über Sie intuitiv aufzuzeichnen, weist eine verblüffende Ähnlichkeit mit der Art und Weise auf, wie Unternehmen wie Facebook Daten über ihre Benutzer sammeln . Der Unterschied besteht darin, dass die Wahrscheinlichkeit, dass Sie mit einem freundlichen, menschenähnlichen Chatbot in einem vermeintlich privaten Bereich teilen, weitaus größer ist als im öffentlichen Kommentarbereich einer Facebook-Seite.

Hinzu kommen KIs einzigartige Möglichkeit, persönliche Informationen über Sie zu sammeln Allein anhand der Art und Weise, wie Sie tippen, verfügen Sie über eines der weltweit wertvollsten Marketinginstrumente, die jemals entwickelt wurden. Noch wichtiger ist, dass auf den Servern von OpenAI eine Fülle von Informationen über Sie gespeichert ist, die bereits Gegenstand der Datenverarbeitung waren Diebstahl von Anmeldedaten Dies führte zu einem Verstoß gegen Benutzerdaten und wurde auch gesehen ChatGPT gibt vertrauliche Informationen wieder heraus aus Chats mit anderen.

Siehe auch  Die KI-Herausforderung im Bildungswesen meistern – ChatGPT zu verbannen ist keine Lösung

Im digitalen Zeitalter sind Daten gleichbedeutend mit Dollar, und die Wartung einer KI wie ChatGPT ist eine kostspielige Angelegenheit. Das soll nicht heißen, dass es eine Garantie dafür ist, dass OpenAI irgendwann versuchen wird, von der Flut an Benutzerdaten zu profitieren. Möglicherweise können sie so weitermachen wie bisher, hoffentlich jedoch mit verbesserten Sicherheitsmaßnahmen.

ChatGPT ist jedoch nicht der einzige KI-Chatbot auf dem Markt, und OpenAI ist auch nicht der Einzige, der sie erstellt. Andere Chatbots machen keinen Hehl aus ihrem Wunsch, von Ihren Daten und Ihrer Zeit zu profitieren, indem sie Werbung einschleusen oder Gespräche für Schulungsmaterial verwenden. Was hindert sie daran, Benutzerprofile zu erstellen, um sie an Marketingunternehmen weiterzugeben und nebenbei noch ein paar Dollar zu verdienen?

Wie ein bekannter Internetnutzer einmal sagte: „Wenn Sie nicht dafür bezahlen, sind Sie nicht der Kunde; Sie sind das Produkt, das verkauft wird.“

Ausblick

OpenAI hat deutlich gemacht, dass Sie seinen Chatbot jederzeit bitten können, Informationen zu „vergessen“, da viele der gespeicherten Daten nur auf der Einstellungsseite von ChatGPT vorhanden sind. Sie können auch einen temporären Chat nutzen, um Ihren KI-Assistenten inkognito zu reparieren, ohne das Risiko einzugehen, dass er sich dabei einige Ihrer offeneren Details notiert.

Das Unternehmen hat außerdem erklärt, dass es die Informationen aus diesen Chats nicht zum Trainieren seiner zukünftigen Modelle verwenden wird und dass die Funktion über dasselbe oben genannte ChatGPT-Einstellungsfeld vollständig deaktiviert werden kann.

Ist dies jedoch der Beginn eines Trends, der von anderen Chatbots übernommen wird, und werden diese Unternehmen das gleiche Maß an datenschutzunterstützenden Einstellungen anbieten? Das bleibt abzuwarten. Aber wenn wir nicht aufpassen, könnten wir uns am Ende selbst verkaufen, nur weil wir einen Chatbot das Googeln für uns erledigen lassen.

Mehr von Laptop Mag

5/5 - (159 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein