Künstliche Intelligenz (KI) ist in der Lage, zunehmend menschenähnliche Texte, Bilder, Musik und Videos zu produzieren. Es gibt Berichte über Studenten, die es verwenden schummeln, und es ist eine Branche rund um von KI verfasste Bücher entstanden, die von Menschen als ihr eigenes Werk beansprucht werden.
Allerdings gibt es auch mindestens ein gemeldeter Fall von einem Lehrer (offenbar ungeschickt), der KI einsetzt, um seinen Schülern fälschlicherweise zu „beweisen“, dass sie betrogen haben – was dazu führt, dass er alle durchfällt.
Es gibt auch einen aktuellen Fall eines Fotografen einen Wettbewerb gewinnen indem er ein KI-generiertes Bild einsendet und nicht eines, das er selbst aufgenommen hat. In diesem Fall hatte der Fotograf gute Absichten und gab seine Auszeichnung zurück, nachdem er enthüllt hatte, was er getan hatte.
Glücklicherweise gibt es derzeit einige ziemlich genaue Methoden, um mithilfe von KI zu erkennen, wo Werke erstellt wurden. In diesem Artikel werde ich untersuchen, welche Tools es gibt, wie sie funktionieren und warum sie für die Sicherheit und den Schutz der akademischen und künstlerischen Integrität von entscheidender Bedeutung sein könnten.
Warum ist die Erkennung von KI-Inhalten wichtig?
Je alltäglicher KI-erstellte Inhalte werden, desto größer wird ihr Potenzial, störende und potenziell schädliche Folgen zu haben. Ein gutes Beispiel ist das Phänomen der „Deep Fakes“, bei denen realistische Bilder von Videos oder echten Menschen erstellt werden können, die scheinbar Dinge tun oder sagen, die sie nie getan haben. Es gibt bereits Beispiele für diese Gewöhnung gefälschte pornografische Inhalte von Menschen ohne deren Zustimmung zu verbreiten und Politikern, darunter auch, Worte in den Mund zu legen Barack Obama. Hier finden Sie ein Video von Trump verhaftet werden (noch bevor er es war) und Joe Biden singender Babyhai (was er meines Wissens noch nie getan hat!)
Manches davon mag lustig erscheinen, aber es besteht das Potenzial, dass es schädliche Folgen für die beteiligten Menschen hat – oder für die Gesellschaft insgesamt, wenn es demokratische Prozesse beeinflusst.
KI wurde verwendet, um menschliche Stimmen zu klonen, um Betrug zu begehen. In einem Fall wurde damit versucht, einer Familie vorzugaukeln, ihre Tochter sei es gewesen entführt um Lösegeld zu erpressen. In einem anderen Fall wurde ein Unternehmensleiter über eine gefälschte Stimme, die er für seinen Chef hielt, dazu überredet, mehr als 240.000 US-Dollar zu überweisen.
Wenn es von Schülern genutzt wird, um bei Aufsätzen und Prüfungen zu betrügen, könnte es der Integrität des Bildungssystems und dem Ruf von Schulen und Hochschulen schaden. Dies könnte dazu führen, dass Studierende nicht ausreichend auf die angestrebten Berufe vorbereitet werden und dass Abschlüsse und Zeugnisse entwertet werden.
All dies unterstreicht die Bedeutung robuster Gegenmaßnahmen, um die Öffentlichkeit über die Gefahren von KI aufzuklären und diese nach Möglichkeit zu erkennen oder sogar zu verhindern. Wenn dieses Problem nicht angegangen wird, könnte KI zu weit verbreiteter Desinformation, Manipulation und Schaden führen. Was kann man also genau tun?
Methoden zur Erkennung von KI-generierten Inhalten
Glücklicherweise gibt es eine Reihe von Methoden zur Erkennung von KI-generierten Inhalten.
Erstens gibt es digitale Tools, die mithilfe eigener KI-Algorithmen versuchen festzustellen, ob ein Text, ein Bild oder ein Video mithilfe von KI erstellt wurde.
Sie können mehrere KI-Textdetektoren online frei verfügbar finden. Der KI-Inhaltsdetektor behauptet, zu 97,8 % zuverlässig zu sein und jeden Text auf Anzeichen dafür untersuchen zu können, dass er nicht von einem Menschen geschrieben wurde. Dies geschieht, indem der Detektor auf die Methoden und Muster trainiert wird, die Tools wie ChatGPT und andere große Sprachmodelle bei der Texterstellung verwenden. Anschließend gleicht es diese Informationen mit dem übermittelten Text ab, um festzustellen, ob es sich um natürliche menschliche Schrift oder um von KI erstellten Text handelt.
Dies ist möglich, weil KI-Inhalte für einen Computer relativ vorhersehbar sind und auf Wahrscheinlichkeiten basieren. Dies bedeutet, dass ein Konzept namens „Perplexität“ verwendet werden kann, um herauszufinden, ob der Text eine Sprache verwendet, die höchstwahrscheinlich ist oder nicht. Wenn stets die wahrscheinlichste Sprache verwendet wird, besteht eine höhere Wahrscheinlichkeit, dass sie von KI erstellt wird.
Wenn es wichtig ist, dass Sie ein hohes Maß an Sicherheit haben, können Sie es mit mehreren KI-Detektoren vergleichen. Weitere nützliche Tools sind die Writer AI Content Detector Und Crossplag.
Bei der Erkennung von Deepfakes arbeiten Unternehmen wie Facebook und Microsoft zusammen Herausforderung zur Deepfake-Erkennung. Dieses Projekt veröffentlicht regelmäßig Datensätze, die zum Trainieren von Erkennungsalgorithmen verwendet werden können. Es ist auch inspiriert Wettbewerb auf dem kollaborativen Data-Science-Portal Kaggle, bei dem Benutzer darum konkurrieren, die effektivsten Algorithmen zu finden.
Angesichts der Gefahr, die KI-generierte Videos und Bilder für die nationale Sicherheit darstellen könnten, haben sich auch Militärorganisationen dem Kampf angeschlossen. Die Advanced Research Projects Agency (DARPA) des US-Verteidigungsministeriums hat erstellte Werkzeuge die darauf abzielen festzustellen, ob Bilder von KI erstellt oder manipuliert wurden. Eines der Tools, MediFor genannt, vergleicht das von der KI erzeugte Bild mit realen Bildern und sucht nach verräterischen Anzeichen wie Variationen in der Wirkung von Beleuchtung und Farbgebung, die nicht der Realität entsprechen. Ein anderes, bekannt als SemaFor, analysiert den Kontext zwischen Bildern und dazugehörigen Textunterschriften oder Nachrichtenmeldungen.
Schließlich sollten wir nicht übersehen, welche Rolle menschliches Urteilsvermögen und kritisches Denken bei der Erkennung von KI-Inhalten spielen können. Der Mensch verfügt über ein „Bauchgefühl“, das – wenn auch sicherlich nicht unfehlbar – uns bei der Feststellung der Authentizität helfen kann. Mit einem kritischen Blick und der Anwendung unseres Wissens ist es wahrscheinlich, dass Joe Biden tatsächlich ein Video von sich selbst erstellt singt zu Baby Shark mit? – ist unerlässlich, anstatt die gesamte Verantwortung an Maschinen zu delegieren.
Die Zukunft der KI-Erkennung – ein Wettrüsten?
Wahrscheinlich erleben wir erst die sehr frühen Stadien eines Szenarios, in dem es zu einem „Wettrüsten“ kommen wird, da KI immer effizienter bei der Erstellung lebensechter Inhalte wird und die Entwickler von Erkennungstools darum kämpfen, mitzuhalten.
Dies ist kein Kampf, der nur zwischen Technologen ausgetragen wird. Je klarer die Auswirkungen auf die Gesellschaft werden, desto klarer werden Regierungen und Bürgergruppen erkennen, dass ihnen eine wichtige Rolle als Gesetzgeber, Pädagogen und Hüter der „Wahrheit“ zukommt. Wenn wir feststellen, dass wir dem, was wir lesen, sehen, sehen und hören, nicht mehr vertrauen können, wird unsere Fähigkeit, in allen Lebensbereichen, von der Politik bis zur Wissenschaft, fundierte Entscheidungen zu treffen, beeinträchtigt.
Die Kombination von technologischen Lösungen, menschlichem Urteilsvermögen und der fundierten Aufsicht und erforderlichenfalls Intervention von Regulierungsbehörden und Gesetzgebern wird unsere beste Verteidigung gegen diese neuen Herausforderungen sein.
Um über neue und aufkommende Geschäfts- und Technologietrends auf dem Laufenden zu bleiben, abonnieren Sie unbedingt den Newsletter mein NewsletterFolge mir auf Twitter, LinkedInUnd Youtubeund schauen Sie sich meine Bücher an Future Skills: Die 20 Fähigkeiten und Kompetenzen, die jeder braucht, um in einer digitalen Welt erfolgreich zu sein UndDas Internet der Zukunft: Wie Metaverse, Web 3.0 und Blockchain Wirtschaft und Gesellschaft verändern werden.
Folge mir auf Twitter oder LinkedIn. Kasse Mein Webseite oder einige meiner anderen Arbeiten Hier.