Heute, den Forbes Technology Council veröffentlichte einen Artikel von Dr. Igor Mezic, CTO und Chefwissenschaftler von MixMode, mit dem Titel: „chatgpt-and-third-wave-generative-ai-models/?sh=55f083002cd2″>Die Auswirkungen von ChatGPT und generativen KI-Modellen der dritten Welle auf die Cybersicherheit.“ Die Veröffentlichung von ChatGPT, einem generativen KI-Modell, hat großes Interesse an der Entwicklung künstlicher Intelligenz geweckt. Obwohl sich generative Modelle schon seit einiger Zeit in der Entwicklung befinden, hat die öffentliche Veröffentlichung von ChatGPT wichtige Fragen zur Natur dieser Modelle, ihren möglichen Auswirkungen und ihrer Rolle in Bereichen wie der Cybersicherheit aufgeworfen. Um ihre Bedeutung zu verstehen, untersucht Dr. Mezic die Geschichte und Entwicklung der KI, unterscheidet zwischen den verschiedenen Wellen der KI-Technologie und letztendlich die Auswirkungen auf die Cybersicherheit.
Mezic, der einen Ph.D. Er kommt vom CalTech und ist Professor für Ingenieurwesen und Mathematik an der UCSB. Er unterscheidet klar zwischen generativer KI und allgemeiner Intelligenz und sagt:
ChatGPT arbeitet nach einem generativen Modell. Während des Lernprozesses nimmt es das schriftliche Material auf, das es im Web findet. Als Antwort auf eine Anfrage wird Text erzeugt, der normalerweise nicht mit dem übereinstimmt, was es „gelesen“ hat. Gerade aufgrund dieser Eigenschaft ist das zugrunde liegende Modell „generativ“. Es ist jedoch ganz einfach: Es generiert das nächste Wort in einer Sequenz nur auf der Grundlage der Wahrscheinlichkeit des Auftretens von Wörtern, die es aus Eingabedaten generiert hat. In diesem Sinne ist ChatGPT keine KI-Technologie der dritten Welle und weit entfernt von dem, was wir als „allgemeine Intelligenz“ bezeichnen.
Wenn es darum geht, die generative KI der dritten Welle auf die Cybersicherheit anzuwenden, der Artikel weist sowohl auf Versprechen als auch auf Herausforderungen hin. Generative Modelle sind vielversprechend, da sie kontextuelle Beziehungen von Natur aus verstehen und sie in kleinen Dosen erfassen. Diese Modelle können sich an neue Daten anpassen und Variationen beobachten, was sie für die Erkennung von Anomalien und Bedrohungen nützlich macht. Der Einsatz großer Sprachmodelle wie ChatGPT in der Cybersicherheit bringt jedoch Herausforderungen wie Rechenkosten, Anpassungsfähigkeit an dynamische Änderungen und mangelnde Transparenz bei der Entscheidungsfindung mit sich.
Klicken Sie hier, um den vollständigen Artikel des Forbes Technology Council zu lesen
Andere MixMode-Artikel, die Ihnen gefallen könnten
Channeltivity: Globales Channel-Management verstehen
Ausbalancierung von Sicherheitsausgaben und Geschäftsprioritäten
Bereitstellung generativer KI für die Cybersicherheit seit über 3 Jahren