Obwohl diese Praxis mit dem Fortschritt der Technologie immer schwieriger zu erkennen ist, gibt Ihnen Franceinfo einige Tipps, um diese Texte zu erkennen, die nicht von Menschen geschrieben wurden.
Haben Sie sich jemals gefragt, ob ein Artikel, den Sie online gelesen haben, mit der Maschine geschrieben worden sein könnte? Es ist jedoch durchaus möglich. Dank der rasanten Fortschritte der künstlichen Intelligenz beim Schreiben ist es nun möglich, aus einer einfachen Anleitung ganze Artikel zu verfassen. Einige Websites veröffentlichen auf diese Weise täglich mehrere Dutzend Artikel, ohne oder mit geringer menschlicher Aufsicht. Der Start-up Newsguarddas Desinformationsseiten verfolgt, hat 380 entdeckt „Unzuverlässige KI-generierte Nachrichtenseiten“ in den letzten Monaten. Manchmal sind sie in Suchmaschinen sehr gut referenziert, vielleicht haben Sie einen dieser Artikel bereits gelesen, ohne es zu merken.
>> UMFRAGE. Wie sich künstliche Intelligenz in die Nationalversammlung einlädt
Gute Nachrichten jedoch, eine Studie (PDF)veröffentlicht im Dezember 2022 und unter der Leitung eines Forscherteams der University of Pennsylvania, zeigte, dass das menschliche Auge – mit ein wenig Training – dazu in der Lage isterkennen, ob ein Text von einer Person oder von einer KI geschrieben wurde. Um ihre Studie durchzuführen, baten die amerikanischen Forscher die Teilnehmer, an einem Spiel namens „Real or Fake Text?“ teilzunehmen, bei dem sie versuchen mussten, von einem Roboter geschriebene Texte anhand schwacher Hinweise zu identifizieren. Das Spiel, Online verfügbar, existiert nur in englischer Version. Die gleichen Grundsätze gelten jedoch auch für auf Französisch verfasste Texte. Hier sind einige Hinweise, auf die Sie beim Online-Lesen von Artikeln achten sollten, damit Sie nicht betrogen werden.
1Sie machen Wiederholungen (aber keine Fehler)
Erster Hinweis: „Eine KI macht keine Rechtschreibfehler“, erklärt die Ingenieurin Amélie Cordier, Ärztin für künstliche Intelligenz. Wenn Sie einen Tippfehler (Tippfehler, Grammatik usw.) in einem Text finden, ist dies eine gute Möglichkeit zu erkennen, dass der Artikel, den Sie gerade lesen, zumindest von einem Menschen bearbeitet wurde.
Im Gegensatz dazu sind Artikel, die von einer KI ohne menschliche Aufsicht geschrieben wurden, oft mit Unmengen versehen WiederholungS. Generatives Schreiben tendiert dazu, die gleichen Begriffe und Satzstrukturen wiederzugeben – auch wenn dies immer seltener der Fall ist. KIs werden immer effizienter und ihre Nutzer wissen sie auch immer besser einzusetzen, um diese Fallstricke zu umgehen.
„Man kann der KI sagen, dass sie ‚im Stil von‘ schreiben soll, ihr ein Schreibbeispiel geben, ihr sagen, dass sie Wiederholungen vermeiden soll, und dann wird es sehr effizient und schwer zu erkennen.“
Virginie Mathivet, Ingenieurin und Autorin einer Dissertation über künstliche Intelligenzbei franceinfo
Es wurde sogar Software entwickelt, um es noch menschlicher zu machenVon künstlicher Intelligenz verfasste Texte. Der bekannteste heißt Undetectable.ai und ermöglicht die „Humanisierung“ künstlicher Texte durch konfrontieren zu den wichtigsten existierenden KI-Detektoren. Tatsächlich werden diese Detektoren immer weniger zuverlässig. „Offene KI [l’entreprise créatrice de chatgpt] hat kürzlich seinen Detektor aufgegeben, weil er nicht funktioniert“, betont Virginie Mathivet.
2Sie sind in der Lage, Unsinn zu behaupten
KIs sind sehr gut darin Aufgaben hochgradig kodifiziert, wie die Rechtschreibung, aber sie können Unsinn sagen, ohne mit der Wimper zu zucken. „Eine KI denkt nicht, sie hat keinen gesunden Menschenverstand. Sie kann einem mit absoluter Überzeugung absurde Dinge erzählen.“bemerkt Amélie Cordier.
„Wenn man eine KI bittet, ein Rezept für ein Kuheier-Omelett zu schreiben, kann sie es schaffen.“
Amélie Cordier, Ingenieurin mit Spezialisierung auf künstliche Intelligenzbei franceinfo
Websites, die KI zur Massenproduktion von Artikeln aus im Internet gefundenen Inhalten verwenden, stehen häufig vor diesem Problem. Kürzlich wurde die Seite The Portal, die sich mit Neuigkeiten zu Videospielen beschäftigt, gepinnt auf Twitter vom Journalisten Grégory Rozières. Einige Artikel enthalten tatsächlich grobe Fehlinformationen, da die KI, die sie schreibt, die auf Reddit gefundenen Witze für bare Münze genommen hat.
Wenn Sie einen Artikel lesen und Ihnen eine Information absurd oder eine Zahl übertrieben vorkommt, kann dies ein Zeichen für nichtmenschliches Schreiben sein. Um sicherzugehen, ist es am besten, die fragwürdigen Informationen bei anderen vertrauenswürdigen Quellen zu überprüfen. „Es kommt darauf an, Fakten zu überprüfen, es liegt an den Menschen, einen kritischen Blick darauf zu werfen.“kommentiert Virginie Mathivet.
3Sie zeigen unmenschliche Produktivität
KI-Schreiben ist noch lange kein Garant für Qualität, aber es ermöglicht die Produktion einer sehr großen Anzahl von Artikeln in Rekordzeit. Seien Sie also vorsichtig bei Websites, die täglich eine große Menge an Artikeln veröffentlichen, ohne viele Mitarbeiter zu beschäftigen. „Wenn wir sehen, dass ein Blog täglich 200 Artikel unter demselben Namen veröffentlicht, ist das ein Hinweis.“, erklärt Virginie Mathivet. Einige von Robotern geschriebene Artikel sind mit einem Namen signiert, als ob sie von einer Person geschrieben worden wären. Erscheint diese Signatur zu produktiv, ist der Einsatz einer KI stark zu vermuten. Auf der oben bereits erwähnten Seite The Portal hat derselbe „Journalist“ somit in nur neun Tagen fast 7.000 Artikel unterzeichnet.
Wenn die Artikel außerdem viele Ähnlichkeiten in Form und Struktur aufweisen, ist es sicher, dass diese automatisch geschrieben werden. KIs neigen dazu, sehr homogene Inhalte zu produzieren, insbesondere wenn sie aus derselben Anweisung erstellt werden, die in einer Schleife verwendet wird. „KI imitiert, so funktioniert es. Sie homogenisiert irgendwie alles.“betont Amélie Cordier.
4Sie schreiben schlecht und geben selten ihre Quellen an
Obwohl sie manchmal mit einem menschlichen Namen unterschreiben, können KIs ihre Artikel nicht auf die gleiche Weise verkörpern wie ein echter Journalist. Wenn ein Journalist außerhalb seiner Autorenseite überhaupt keine Online-Existenz hat, kann dies einer der Hinweise sein, die auf KI-Schreiben schließen lassen. Schließlich haben Artikel, die mithilfe künstlicher Intelligenz veröffentlicht werden, oft einen sehr sachlichen, eher körperlosen Ton. KIs zitieren sehr selten ihre Quellen und beziehen niemals eine menschliche Person in Form eines Zitats wie in einem Presseartikel mit ein.
Andererseits sind sie durchaus in der Lage, sie zu erfinden, wenn man sie dazu auffordert. In einer im April 2023 erschienenen Ausgabe des Deutschen Volksmagazins Die Aktuelle ging so weit, ein gefälschtes Exklusivinterview mit Michael Schumacher zu veröffentlichen, das von einer künstlichen Intelligenz generiert wurde, wie es heißt die Fachseite Numerama. Die Familie des ehemaligen Formel-1-Champions reichte Beschwerde ein und der Chefredakteur des Magazins wurde schließlich entlassen.
KI kann jedoch ein interessantes Werkzeug sein, solange sie unter menschlicher Aufsicht bleibt. Der Journalist Jean Rognetta, Erfinder des Qant-Newsletters, nutzt täglich KI. Seiner Meinung nach ist er das nicht „Es ist nicht mehr möglich, einen von einer KI verfassten Artikel mit Sicherheit zu erkennen, außer dass es sich oft um schlechten Journalismus handelt.“. Obwohl er zum Schreiben seines Newsletters KI nutzt, bleibt Jean Rognetta von der Notwendigkeit des Korrekturlesens und der menschlichen Korrektur überzeugt. „Unser Newsletter wird mit und nicht von einer KI geschrieben“, hämmert er. Ein Ansatz, der bald auf andere Zeitungen übertragen werden könnte. Am 19. Juli wurde die google-artificial-intelligence-news-articles.html“ target=“_blank“ rel=“noopener“ class=“ftvi-click“ data-click-value=“content::link-in-content::article::https://www.nytimes.com/2023/07/19/business/google-artificial-intelligence-news-articles.html“>New York Times kündigte auf seinen Seiten an, dass Google ein Tool für künstliche Intelligenz entwickelt, das bestimmte von seinen Journalisten ausgeführte Aufgaben automatisieren soll.
5Sie werden demnächst mit einem Wasserzeichen versehen
Angesichts der zunehmenden Schwierigkeit, mithilfe künstlicher Intelligenz generierte Inhalte zu erkennen, hat die Europäische Union im vergangenen Juni das „KI-Gesetz“ verabschiedet, mit dem Ziel, den Sektor zu regulieren. Ab der nicht vor 2026 zu erwartenden Anwendung der neuen Regelungen müssen durch KI generierte Inhalte mit einem „Wasserzeichen“ (einer Wasserzeichensignatur) gekennzeichnet werden, das deutlich macht, dass sie nicht von einem Menschen erstellt wurden.
Allerdings ist die Form dieses Wasserzeichens noch nicht vollständig definiert. Es könnte die Form eines Warnhinweises annehmen oder im Text versteckt sein, damit es von den Benutzern weniger leicht gelöscht werden kann. Open AI gab kürzlich bekannt, dass sie an einem unsichtbaren Wasserzeichen arbeiten. Wie ? Eine aktuelle Studie (PDF) von der University of Maryland schlägt beispielsweise vor, KIs so zu programmieren, dass sie eine „spezielle Liste“ von im Voraus definierten Wörtern häufiger verwenden, damit die Erkennungssoftware effektiver sein kann.
„Es gibt gute Absichten auf EU- und Verlagsebene, aber das Problem bleibt die Frage der Umsetzung“, glaubt Amélie Cordier. Wenn die Regulierung für die größten Akteure wie Open AI, Google usw. problemlos eingeführt werden kann, wird es unmöglich sein, sie den vielen kleinen Unternehmen aufzuzwingen.
„Wenn der Nutzer die Wahl zwischen einer Software mit ‚Wasserzeichen‘ oder einer nicht nachweisbaren freien Software hat, dürfte die Regelung wirkungslos sein.“
Amélie Cordier, Ingenieurin mit Spezialisierung auf künstliche Intelligenzbei franceinfo
Eine Meinung, die Virginie Mathivet insbesondere im Hinblick auf „Fake News“ teilt. „Eine Person, die Fehlinformationen verbreiten möchte, wird darauf achten, kein Wasserzeichen zu haben.“schließt sie.