Dr. Igor Mezic, MixMode CTO und Chefwissenschaftler

Heute, den Forbes Technology Council veröffentlichte einen Artikel von Dr. Igor Mezic, CTO und Chefwissenschaftler von MixMode, mit dem Titel: „chatgpt-and-third-wave-generative-ai-models/?sh=55f083002cd2″>Die Auswirkungen von ChatGPT und generativen KI-Modellen der dritten Welle auf die Cybersicherheit.“ Die Veröffentlichung von ChatGPT, einem generativen KI-Modell, hat großes Interesse an der Entwicklung künstlicher Intelligenz geweckt. Obwohl sich generative Modelle schon seit einiger Zeit in der Entwicklung befinden, hat die öffentliche Veröffentlichung von ChatGPT wichtige Fragen zur Natur dieser Modelle, ihren möglichen Auswirkungen und ihrer Rolle in Bereichen wie der Cybersicherheit aufgeworfen. Um ihre Bedeutung zu verstehen, untersucht Dr. Mezic die Geschichte und Entwicklung der KI, unterscheidet zwischen den verschiedenen Wellen der KI-Technologie und letztendlich die Auswirkungen auf die Cybersicherheit.

Mezic, der einen Ph.D. Er kommt vom CalTech und ist Professor für Ingenieurwesen und Mathematik an der UCSB. Er unterscheidet klar zwischen generativer KI und allgemeiner Intelligenz und sagt:

ChatGPT arbeitet nach einem generativen Modell. Während des Lernprozesses nimmt es das schriftliche Material auf, das es im Web findet. Als Antwort auf eine Anfrage wird Text erzeugt, der normalerweise nicht mit dem übereinstimmt, was es „gelesen“ hat. Gerade aufgrund dieser Eigenschaft ist das zugrunde liegende Modell „generativ“. Es ist jedoch ganz einfach: Es generiert das nächste Wort in einer Sequenz nur auf der Grundlage der Wahrscheinlichkeit des Auftretens von Wörtern, die es aus Eingabedaten generiert hat. In diesem Sinne ist ChatGPT keine KI-Technologie der dritten Welle und weit entfernt von dem, was wir als „allgemeine Intelligenz“ bezeichnen.

Wenn es darum geht, die generative KI der dritten Welle auf die Cybersicherheit anzuwenden, der Artikel weist sowohl auf Versprechen als auch auf Herausforderungen hin. Generative Modelle sind vielversprechend, da sie kontextuelle Beziehungen von Natur aus verstehen und sie in kleinen Dosen erfassen. Diese Modelle können sich an neue Daten anpassen und Variationen beobachten, was sie für die Erkennung von Anomalien und Bedrohungen nützlich macht. Der Einsatz großer Sprachmodelle wie ChatGPT in der Cybersicherheit bringt jedoch Herausforderungen wie Rechenkosten, Anpassungsfähigkeit an dynamische Änderungen und mangelnde Transparenz bei der Entscheidungsfindung mit sich.

Siehe auch  Hier erfahren Sie, wie Sie mit ChatGPT direkt per Sprache sprechen können

Klicken Sie hier, um den vollständigen Artikel des Forbes Technology Council zu lesen

Andere MixMode-Artikel, die Ihnen gefallen könnten

Channeltivity: Globales Channel-Management verstehen

Ausbalancierung von Sicherheitsausgaben und Geschäftsprioritäten

MixMode wurde in die CyberTech100-Liste der Technologieinnovatoren aufgenommen, die bahnbrechende Cybersicherheitslösungen für Finanzinstitute bereitstellen

Anhaltende Ransomware-Angriffe auf Städte unterstreichen die Notwendigkeit eines Upgrades auf Echtzeit-Bedrohungstransparenz

Die 2 Fragen, die Kunden im Bereich Cybersicherheit am häufigsten stellen, wenn sie einen vertrauenswürdigen Anbieter suchen

Bereitstellung generativer KI für die Cybersicherheit seit über 3 Jahren

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein