Besuchen Sie unsere On-Demand-Bibliothek, um Sitzungen von VB Transform 2023 anzusehen. Registrieren Sie sich hier


chatgpt hat die Welt im Sturm erobert, seit OpenAI die Betaversion seines fortschrittlichen Chatbots enthüllt hat. OpenAI hat außerdem eine kostenlose ChatGPT-App für iPhones und iPads veröffentlicht, wodurch das Tool direkt in die Hände der Verbraucher gegeben wird. Der Chatbot und andere generative KI-Tools, die die Technologieszene überschwemmen, haben viele Benutzer aufgrund ihrer menschenähnlichen Antworten und nahezu sofortigen Antworten auf Fragen verblüfft und verängstigt.

Den Menschen ist nicht bewusst, dass diese Chatbots zwar Antworten liefern, die „menschlich“ klingen, es ihnen aber an grundlegendem Verständnis mangelt. ChatGPT wurde anhand einer Fülle von Internetdaten – Milliarden von Textseiten – trainiert und bezieht seine Antworten allein aus diesen Informationen.

Die Daten, aus denen ChatGPT trainiert wird und die als Common Crawl bezeichnet werden, sind in Bezug auf Trainingsdaten so gut wie nie zuvor. Doch wir wissen es nie wirklich Warum oder Wie Der Bot kommt zu bestimmten Antworten. Und wenn es ungenaue Informationen generiert, wird es dies selbstbewusst sagen; es weiß nicht, dass es falsch ist. Selbst bei bewussten und ausführlichen Aufforderungen und Prämissen kann es sowohl richtige als auch falsche Informationen ausgeben.

Die kostspieligen Folgen, wenn man den Ratschlägen von ChatGPT blind folgt

Wir können Gen-KI mit einem Papagei vergleichen, der die menschliche Sprache nachahmt. Obwohl es gut ist, dass dieses Tool keine einzigartigen Gedanken oder Erkenntnisse hat, hören zu viele Menschen gedankenlos auf seine Ratschläge und befolgen sie. Wenn ein Papagei spricht, wissen Sie, dass er die Worte wiederholt, die er belauscht hat, also nehmen Sie das mit Vorsicht. Benutzer müssen natürlichsprachlichen Modellen mit der gleichen Portion Skepsis begegnen. Die Folgen, blind den „Ratschlägen“ eines Chatbots zu folgen, könnten kostspielig sein.

Ereignis

VB Transform 2023 auf Abruf

Haben Sie eine Sitzung von VB Transform 2023 verpasst? Registrieren Sie sich, um auf die On-Demand-Bibliothek aller unserer vorgestellten Sitzungen zuzugreifen.

Jetzt registrieren

Eine aktuelle Studie von Forschern der Stanford University: „Wie verändert sich das Verhalten von ChatGPT im Laufe der Zeit?” stellte fest, dass die Genauigkeit des Bots bei der Lösung eines einfachen mathematischen Problems im März 2023 bei 98 % lag, im Juni 2023 jedoch drastisch auf nur noch 2 % sank. Dies unterstreicht seine Unzuverlässigkeit. Bedenken Sie, dass es sich bei dieser Untersuchung um ein grundlegendes mathematisches Problem handelte. Stellen Sie sich vor, die Mathematik oder das Thema wäre komplexer und ein Benutzer kann nicht einfach bestätigen, dass es falsch ist.

  • Was wäre, wenn es Code wäre und kritische Fehler hätte?
  • Was ist mit Vorhersagen darüber, ob eine Gruppe von Röntgenstrahlen Krebs hat?
  • Wie wäre es mit einer Maschine, die Ihren Wert für die Gesellschaft vorhersagt?
Siehe auch  Tim Cook (Apple) zwinkert ChatGPT-Enthusiasten zu

Wenn eine Person ChatGPT eine Frage stellt, ist die Wahrscheinlichkeit groß, dass sie kein Experte auf dem Gebiet ist und daher den Unterschied zwischen richtigen und falschen Informationen nicht kennt. Benutzer investieren möglicherweise keine Zeit in die Überprüfung der Antwort und treffen Entscheidungen möglicherweise auf der Grundlage falscher Daten.

Auswahl des „Gehirns“ von ChatGPT zum Thema Cybersicherheits-Resilienz

Ich habe ChatGPT nach Lösungsvorschlägen und taktischen Schritten zum Aufbau der Widerstandsfähigkeit der Cybersicherheit gegen böswillige Akteure gefragt – ein Thema, mit dem ich bestens vertraut bin. Es gab einige hilfreiche Ratschläge und einige schlechte Ratschläge. Aufgrund meiner jahrelangen Erfahrung im Bereich Cybersicherheit war mir sofort klar, dass die Tipps fragwürdig waren, aber jemand, der kein Fachexperte ist, würde wahrscheinlich nicht verstehen, welche Antworten hilfreich oder schädlich waren. Jeder der Tipps unterstrich die Notwendigkeit des menschlichen Faktors bei der Beurteilung der Ratschläge eines Bots.

ChatGPT: „Schulen Sie Ihre Mitarbeiter: Ihre Mitarbeiter können Ihre erste Verteidigungslinie gegen schlechte Akteure sein. Es ist wichtig, sie in Best Practices für Datensicherheit zu schulen und sie über potenzielle Bedrohungen aufzuklären.“

  • Meine Meinung: Es ist wichtig, Überlegungen wie Erfahrungsniveau und Fachgebiete im Auge zu behalten, da die Kenntnis des Publikums den Bildungsansatz beeinflusst. Ebenso sollte die Schulung auf den spezifischen Cybersicherheitsbedürfnissen und -zielen einer Organisation basieren. Die wertvollste Schulung ist praktisch und basiert auf Dingen, die Mitarbeiter jeden Tag tun, wie beispielsweise der Verwendung sicherer und eindeutiger Passwörter zum Schutz ihrer Konten. Als Bot verfügt ChatGPT nicht über diesen Kontext, es sei denn, Sie als Fragesteller stellen ihn bereit. Und selbst bei allzu ausführlichen und spezifischen Aufforderungen kann es immer noch zu schlechten Ratschlägen kommen.

Das Fazit: Das ist ein guter Tipp, es fehlen aber wichtige Details zur Schulung und Schulung der Mitarbeiter.

Siehe auch  Umfrage: Der Stromverbrauch von ChatGPT ist extrem hoch, der Stromverbrauch eines Monats entspricht dem monatlichen Stromverbrauch von 175.000 Dänen

ChatGPT: „Mit anderen Unternehmen und Organisationen zusammenarbeiten: Zusammenarbeit ist der Schlüssel zum Aufbau der Widerstandsfähigkeit gegenüber böswilligen Akteuren. Durch die Zusammenarbeit mit anderen Unternehmen und Organisationen können Sie Best Practices und Informationen über potenzielle Bedrohungen austauschen.

  • Meine Meinung: Dies ist ein guter Rat, wenn man ihn im Kontext betrachtet, insbesondere wenn Organisationen des öffentlichen und privaten Sektors zusammenarbeiten, um voneinander zu lernen und Best Practices zu übernehmen. ChatGPT stellte jedoch keinen solchen Kontext bereit. Unternehmen, die zusammenkommen, nachdem jemand Opfer eines Angriffs geworden ist, und beispielsweise Angriffsdetails oder Ransomware-Auszahlungen besprechen, könnten äußerst schädlich sein. Im Falle eines Verstoßes sollte das Hauptaugenmerk nicht auf der Zusammenarbeit, sondern auf Triage, Reaktion, forensischer Analyse und Zusammenarbeit mit den Strafverfolgungsbehörden liegen.

Das Fazit: Sie benötigen das menschliche Element, um Informationen aus NLP-Modellen (Natural Language Processing) effektiv abzuwägen.

ChatGPT: „Umsetzen Sie strenge Sicherheitsmaßnahmen: Einer der wichtigsten Schritte zum Aufbau der Widerstandsfähigkeit gegen böswillige Akteure ist die Implementierung strenger Sicherheitsmaßnahmen für Ihre KI-Systeme. Dazu gehören Dinge wie robuste Authentifizierungsmechanismen, sichere Datenspeicherung und Verschlüsselung sensibler Daten.“

  • Meine Meinung: Dies ist zwar ein guter, allgemeingültiger Ratschlag (wenn auch gesunder Menschenverstand), doch „starke Sicherheitsmaßnahmen“ unterscheiden sich je nach Sicherheitsreifekurs der Organisation. Beispielsweise erfordert ein 15-köpfiges Startup andere Sicherheitsmaßnahmen als eine globale Fortune-100-Bank. Und obwohl die KI möglicherweise bessere Ratschläge mit besseren Eingabeaufforderungen geben könnte, sind die Bediener nicht darin geschult, welche Fragen sie stellen oder welche Vorbehalte sie machen müssen. Wenn Sie beispielsweise sagen, dass die Trinkgelder für ein kleines Unternehmen ohne Sicherheitsbudget gelten, werden Sie zweifellos eine ganz andere Antwort erhalten.

ChatGPT: „Daten überwachen und analysieren: Durch die Überwachung und Analyse von Daten können Sie Muster und Trends erkennen, die auf eine potenzielle Bedrohung hinweisen können. Dies kann Ihnen helfen, Maßnahmen zu ergreifen, bevor die Bedrohung ernst wird.“

  • Meine Meinung: Technik- und Sicherheitsteams nutzen KI zur Verhaltensanalyse, die ein robustes und hilfreiches Werkzeug für Verteidiger darstellen kann. KI findet untypische Dinge zum Anschauen; Es sollte jedoch keine Feststellungen treffen. Angenommen, ein Server einer Organisation hat in den letzten sechs Monaten täglich eine Funktion ausgeführt und lädt plötzlich große Datenmengen herunter. Die KI könnte diese Anomalie als Bedrohung kennzeichnen. Der menschliche Faktor ist jedoch nach wie vor entscheidend für die Analyse, d. h. um festzustellen, ob das Problem vorliegt War eine Anomalie oder etwas Routinemäßiges wie eine Flut von Software-Updates am „Patch-Dienstag“. Um festzustellen, ob anomales Verhalten tatsächlich böswillig ist, ist der menschliche Faktor erforderlich.
Siehe auch  „Apple GPT“: Apple hätte ein internes Äquivalent von ChatGPT, wüsste aber nicht, was es damit machen soll

Ratschläge nur so gut (und aktuell) wie Trainingsdaten

Wie jedes Lernmodell bezieht ChatGPT sein „Wissen“ aus Internetdaten. Verzerrte oder unvollständige Trainingsdaten wirken sich auf die weitergegebenen Informationen aus, was dazu führen kann, dass diese Tools unerwartete oder verzerrte Ergebnisse liefern. Darüber hinaus sind die Ratschläge der KI so alt wie ihre Trainingsdaten. Im Fall von ChatGPT wird alles, was auf Informationen nach 2021 beruht, nicht berücksichtigt. Für eine Branche wie den Bereich der Cybersicherheit, die sich ständig weiterentwickelt und unglaublich dynamisch ist, ist dies eine gewaltige Überlegung.

Beispielsweise hat google kürzlich die Top-Level-Domain .zip für die Öffentlichkeit freigegeben, sodass Benutzer .zip-Domains registrieren können. Aber Cyberkriminelle nutzen bereits .zip-Domains für Phishing-Kampagnen. Jetzt benötigen Benutzer neue Strategien, um diese Art von Phishing-Versuchen zu erkennen und zu vermeiden.

Da dies jedoch so neu ist, müsste ein KI-Tool mit zusätzlichen Daten über dem Common Crawl trainiert werden, um diese Versuche effektiv identifizieren zu können. Das Erstellen eines neuen Datensatzes wie dem, den wir haben, ist aufgrund der Menge an generiertem Text nahezu unmöglich, und wir wissen, dass die Verwendung einer Maschine zum Unterrichten der Maschine ein Rezept für eine Katastrophe ist. Es verstärkt etwaige Verzerrungen in den Daten und verstärkt die falschen Elemente.

Die Menschen sollten nicht nur vorsichtig sein, den Ratschlägen von ChatGPT zu folgen, sondern die Branche muss sich auch weiterentwickeln, um zu bekämpfen, wie Cyberkriminelle es nutzen. Betrüger erstellen bereits immer glaubwürdigere Phishing-E-Mails und Betrugsversuche, und das ist nur die Spitze des Eisbergs. Tech-Giganten müssen zusammenarbeiten, um sicherzustellen, dass ethische Benutzer vorsichtig und verantwortungsbewusst sind und im KI-Wettrüsten an der Spitze bleiben.

Zane Bond ist Cybersicherheitsexperte und Produktleiter bei Keeper-Sicherheit.

DataDecisionMakers

Willkommen in der VentureBeat-Community!

Bei DataDecisionMakers können Experten, einschließlich der Techniker, die mit Daten arbeiten, datenbezogene Erkenntnisse und Innovationen austauschen.

Wenn Sie mehr über innovative Ideen und aktuelle Informationen, Best Practices und die Zukunft von Daten und Datentechnologie erfahren möchten, besuchen Sie uns bei DataDecisionMakers.

Vielleicht erwägen Sie sogar, einen eigenen Artikel beizutragen!

Lesen Sie mehr von DataDecisionMakers

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein