Künstliche Intelligenz (KI) ist in der Lage, immer menschenähnlichere Texte, Bilder, Musik und Videos zu erstellen. Es gibt Berichte über Studenten, die es zum Betrügen nutzen, und es ist eine Branche rund um KI-geschriebene Bücher entstanden, die die Leute ihr eigenes Werk nennen (es gibt viele Artikel darüber, wie man ein E-Book für Kinder erstellt und es auf Amazon verkauft). .
{„id“:734320,“type“:num,“link“:https:\/\/vc.ru\/chatgpt\/734320-kak-opredelit-byl-li-kontent-sozdan-chatgpt- i-drugimi-ii“,“gtm“:““,“prevCount“:null,“count“:0,“isAuthorized“:false}
{„id“:734320,“type“:1,“typeStr“:content“,showTitle“:false,“initialState“:{„isActive“:false},“gtm“:“}
{„id“:734320,“gtm“:null}
Allerdings gibt es auch mindestens einen registrierter Fall als ein (offenbar unfähiger) Lehrer KI einsetzte, um fälschlicherweise zu „beweisen“, dass seine Schüler schummelten, was dazu führte, dass er sie alle bei einer Prüfung durchfiel.
Es gibt auch einen aktuellen Fall, bei dem ein Fotograf einen Wettbewerb gewann, indem er ein Foto einreichte, das mit künstlicher Intelligenz erstellt wurde, und nicht ein Foto, das er selbst aufgenommen hatte. In diesem Fall hatte der Fotograf gute Absichten und belohnte sich mit der Enthüllung seines Experiments.
Glücklicherweise gibt es derzeit ziemlich genaue Methoden, um festzustellen, ob die Werke mit Hilfe von KI erstellt wurden. In diesem Artikel werde ich untersuchen, welche Tools es gibt, wie sie funktionieren und warum sie für die Sicherheit und den Schutz der akademischen und künstlerischen Integrität von entscheidender Bedeutung sein können.
Beispiele für Missbrauch von KI
Mit zunehmender Verbreitung von KI-generierten Inhalten nimmt auch deren Fähigkeit zu, verheerende und potenziell gefährliche Folgen zu haben. Ein perfektes Beispiel ist das Phänomen von Deepfakes, realistischen Bildern oder Videos von echten Menschen, die scheinbar Dinge tun oder sagen, die sie nie getan haben. Es gab Fälle, in denen dies verwendet wurde Verfälschung pornografischer Inhalte Inhalte von Menschen ohne deren Zustimmung zu verbreiten und Politikern, darunter auch, Worte in den Mund zu legen Barack Obama . Sie können ein Video finden die Festnahme Trump (noch bevor er verhaftet wurde) und Joe Biden, singt „Baby Shark“. (was er meines Wissens nie getan hat).
Manches davon mag komisch klingen, aber es kann für die beteiligten Menschen oder die Gesellschaft als Ganzes verheerend sein, wenn es demokratische Prozesse beeinträchtigt.
KI wurde eingesetzt, um menschliche Stimmen zu klonen, um Betrug zu begehen. Einmal wurde damit versucht, einer Familie weiszumachen, dass ihre Tochter es sei entführtein Lösegeld erpressen. In einem anderen Fall wurde ein Unternehmensleiter mit einer falschen Stimme, von der er glaubte, dass sie sein Chef sei, überredet, über 240.000 US-Dollar zu überweisen.
Wenn Schüler damit bei Aufsätzen und Prüfungen betrügen, kann dies der Integrität des Bildungssystems und dem Ruf von Schulen und Hochschulen schaden. Dies kann dazu führen, dass Studierende nicht auf die Karriere, die sie anstreben, vorbereitet sind und Abschlüsse entwerten.
Methoden zur Erkennung von KI-generierten Inhalten
Glücklicherweise gibt es eine Reihe von Methoden, um KI-generierte Inhalte zu entdecken.
Erstens gibt es digitale Tools, die mithilfe ihrer eigenen KI-Algorithmen versuchen festzustellen, ob ein Text, ein Bild oder ein Video von KI erstellt wurde.
Sie können mehrere KI-Textdetektoren online frei verfügbar finden. Detektor KI-Inhalte behauptet, zu 97,8 % zuverlässig zu sein und jeden Text auf Anzeichen dafür überprüfen zu können, dass er nicht von einem Menschen geschrieben wurde.
Dies ist möglich, weil der Inhalt der KI für einen Computer relativ vorhersehbar ist, da er auf Wahrscheinlichkeiten basiert. Dies bedeutet, dass ein Konzept namens „Verwirrung“ verwendet werden kann, um festzustellen, ob ein Text mit hoher Wahrscheinlichkeit Sprache verwendet oder nicht.
Unternehmen, darunter Microsoft, arbeiten an einem Projekt zur Erkennung von Deepfakes zusammen Herausforderung zur Deepfake-Erkennung . Dieses Projekt veröffentlicht regelmäßig Datensätze, die zum Trainieren von Erkennungsalgorithmen verwendet werden können. Es hat auch inspiriert Wettbewerb auf dem kollaborativen Data-Science-Portal Kaggle, wo Nutzer gegeneinander antreten, um die effizientesten Algorithmen zu finden.
Angesichts der Bedrohung, die KI-generierte Videos und Bilder für die nationale Sicherheit darstellen können, haben sich auch Militärorganisationen dem Kampf angeschlossen. Die Defense Advanced Research Projects Agency (DARPA) wurde gegründet Werkzeug , um festzustellen, ob die Bilder von künstlicher Intelligenz erstellt oder verarbeitet wurden. Eines der Tools, MediFor genannt, vergleicht ein von der KI generiertes Bild mit Bildern aus der realen Welt und sucht nach verräterischen Anzeichen wie Lichteffekten und Farbvariationen, die nicht der Realität entsprechen.
Schließlich dürfen wir die Rolle, die menschliches Urteilsvermögen und kritisches Denken bei der Entdeckung von KI-Inhalten spielen können, nicht aus den Augen verlieren. Der Mensch verfügt über ein „Bauchgefühl“, das zwar nicht unfehlbar ist, uns aber dabei helfen kann, Authentizität zu erkennen. Schauen Sie kritisch hin und wenden Sie an, was wir wissen.
Und wenn Sie sich noch mehr für das Thema KI interessieren, mehr wissen und keine Neuigkeiten und Rezensionen verpassen möchten, abonnieren Sie den Kanal in Tenge, ich freue mich –