Auf der Blogging-Plattform Medium beginnt am 13. Januar ein Beitrag mit Tipps für Content-Ersteller: „Es tut mir leid, aber ich kann dieser Anfrage nicht nachkommen, da es sich um die Erstellung von Werbeinhalten mithilfe von Affiliate-Links handelt.“
Überall im Internet sind solche Fehlermeldungen als verräterisches Zeichen dafür aufgetaucht, dass der Autor hinter einem bestimmten Inhalt kein Mensch ist. Sie werden von KI-Tools wie chatgpt von OpenAI generiert, wenn sie eine Anfrage erhalten, die gegen ihre Richtlinien verstößt. Sie sind ein komischer, aber bedrohlicher Vorbote einer Online-Welt, die zunehmend das Produkt von KI-verfasstem Spam ist.
„Es ist gut, dass die Leute darüber lachen, denn es ist eine lehrreiche Erfahrung darüber, was vor sich geht“, sagte Mike Caulfield, der an der University of Washington Fehlinformationen und digitale Kompetenz erforscht. Er sagte, dass die neuesten KI-Sprachtools eine neue Generation von Spam-Inhalten minderer Qualität hervorbringen, die das Internet zu überfordern drohen, wenn Online-Plattformen und Regulierungsbehörden keine Möglichkeiten finden, sie einzudämmen.
Vermutlich macht es sich niemand zum Ziel, eine Produktbewertung, einen Social-Media-Beitrag oder einen eBay-Eintrag zu erstellen, der eine Fehlermeldung eines KI-Chatbots enthält.Aber da KI-Sprachtools eine schnellere und kostengünstigere Alternative zu menschlichen Autoren bieten, wenden sich Menschen und Unternehmen an sie, um Inhalte aller Art zu produzieren – auch für Zwecke, die im Widerspruch zu den Richtlinien von OpenAI stehen, wie etwa Plagiate oder gefälschtes Online-Engagement.
Infolgedessen sind Werbephrasen wie „Als KI-Sprachmodell“ und „Es tut mir leid, aber ich kann diese Bitte nicht erfüllen“ so alltäglich geworden, dass Amateurdetektive sie mittlerweile als schnelle Möglichkeit zum Erkennen der Anwesenheit von KI verwenden Fälschung.
„Da viele dieser Websites kaum oder gar nicht von Menschen überwacht werden, werden diese Nachrichten direkt auf der Website veröffentlicht, bevor sie von einem Menschen erfasst werden“, sagte McKenzie Sadeghi, Analyst bei NewsGuard, einem Unternehmen, das Fehlinformationen aufspürt.
Sadeghi und ein Kollege bemerkten erstmals im April, dass es auf (Automatisierte Konten werden als „Bots“ bezeichnet.) Sie begannen an anderer Stelle im Internet nach diesen Phrasen zu suchen, unter anderem in den google-Suchergebnissen, und fanden Dutzende Websites, die angeblich Nachrichtenagenturen waren und die verräterischen Fehlermeldungen enthielten.
Aber Websites, die die Fehlermeldungen nicht erkennen, seien wahrscheinlich nur die Spitze des Eisbergs, fügte Sadeghi hinzu.
„Es gibt wahrscheinlich noch viel mehr KI-generierte Inhalte, die diese KI-Fehlermeldungen nicht enthalten und daher schwieriger zu erkennen sind“, sagte Sadeghi.
„Die Tatsache, dass so viele Websites zunehmend damit beginnen, KI zu nutzen, zeigt, dass Benutzer viel wachsamer sein müssen, wenn sie die Glaubwürdigkeit dessen, was sie lesen, bewerten.“
Der KI-Einsatz auf Musk hatte die kostenpflichtige Verifizierung angepriesen, bei der Benutzer eine monatliche Gebühr für ein blaues Häkchen zahlen, das die Authentizität ihres Kontos bestätigt, als eine Möglichkeit, Bots auf der Website zu bekämpfen. Aber die Anzahl der verifizierten Konten, die KI-Fehlermeldungen posten, deutet darauf hin, dass es möglicherweise nicht funktioniert.
Der Autor Parker Molloy veröffentlichte auf Threads, dem Twitter-Rivalen von Meta, ein Video, das eine lange Reihe verifizierter X-Konten zeigt, die alle Tweets mit dem Satz gepostet hatten: „Ich kann keine Antwort geben, da dies gegen die Anwendungsfallrichtlinie von OpenAI verstößt.“
X antwortete nicht auf eine Bitte um Stellungnahme.
Unterdessen berichtete der Tech-Blog Futurism letzte Woche über a Fülle an Amazon-Produkten deren Namen KI-Fehlermeldungen enthielten. Dazu gehörte eine braune Kommode mit der Aufschrift „Es tut mir leid, aber ich kann dieser Anfrage nicht nachkommen, da sie gegen die OpenAI-Nutzungsrichtlinien verstößt.“ Mein Ziel ist es, den Benutzern hilfreiche und respektvolle Informationen bereitzustellen.“
Amazon hat die Einträge in Futurism und anderen Tech-Blogs entfernt. Eine Suche der Washington Post diese Woche nach ähnlichen Fehlermeldungen ergab jedoch, dass noch andere vorhanden waren. Zum Beispiel ein Angebot für ein Gewichtheberzubehör Der Titel lautete: „Es tut mir leid, aber ohne zusätzliche Informationen kann ich keinen neuen Produkttitel analysieren oder erstellen.“ Könnten Sie bitte das spezifische Produkt oder den Kontext angeben, für das Sie einen neuen Titel benötigen?“
Amazon hat keine Richtlinie gegen den Einsatz von KI auf Produktseiten, verlangt aber, dass Produkttitel zumindest das betreffende Produkt identifizieren.
„Wir arbeiten hart daran, den Kunden ein vertrauenswürdiges Einkaufserlebnis zu bieten, einschließlich der Verpflichtung von Drittanbietern, genaue und informative Produktlisten bereitzustellen“, sagte Amazon-Sprecherin Maria Boschetti. „Wir haben die betreffenden Einträge entfernt und verbessern unsere Systeme weiter.“
KI-Bots laufen nicht nur bei X und Amazon Amok. Google-Suchen nach KI-Fehlermeldungen ergaben auch eBay-Angebote, Blogbeiträge und digitale Hintergrundbilder. Ein Eintrag auf Wallpapers.com, der eine spärlich bekleidete Frau zeigt, trug den Titel „Leider kann ich dieser Anfrage nicht nachkommen, da dieser Inhalt unangemessen und beleidigend ist.“
Niko Felix, Sprecher von OpenAI, sagte, das Unternehmen verfeinere regelmäßig seine Nutzungsrichtlinien für ChatGPT und andere KI-Sprachtools, wenn es erfahre, wie Menschen diese missbrauchen.
„Wir möchten nicht, dass unsere Modelle dazu verwendet werden, andere falsch zu informieren, falsch darzustellen oder in die Irre zu führen. In unseren Richtlinien heißt es dazu: ‚Erzeugung oder Förderung von Desinformation, Falschinformationen oder falschem Online-Engagement (z. B. Kommentare, Rezensionen)‘“, Felix sagte. „Wir verwenden eine Kombination aus automatisierten Systemen, menschlicher Überprüfung und Benutzerberichten, um Verwendungen zu finden und zu bewerten, die möglicherweise gegen unsere Richtlinien verstoßen, was zu Maßnahmen gegen das Benutzerkonto führen kann.“
Cory Doctorow, ein Science-Fiction-Romanautor und Technologieaktivist, sagte, es gebe eine Tendenz, die Schuld für das Problem den Menschen und kleinen Unternehmen zuzuschieben, die den Spam erzeugen. Aber er sagte, sie seien tatsächlich Opfer eines umfassenderen Betrugs – einer, die KI als Weg zu leichtem Geld für diejenigen darstellt, die bereit sind, sich zu beeilen, während die KI-Giganten die Gewinne einstreichen.
Caulfield von der University of Washington sagte, die Situation sei nicht hoffnungslos. Er stellte fest, dass Technologieplattformen Wege gefunden haben, Spam der vergangenen Generationen einzudämmen, beispielsweise durch Junk-E-Mail-Filter.
Zu den KI-Fehlermeldungen, die in den sozialen Medien viral gehen, sagte er: „Ich hoffe, dass sie den Menschen die Absurdität dieser Sache bewusst machen und vielleicht dazu führen, dass Plattformen diese neue Form von Spam ernst nehmen.“