KI-Benutzer schlagen Alarm, nachdem sie zu dem Schluss gekommen sind, dass Menschen eine „Übernahme“ des maschinellen Lernens ermöglichen.
„Wir werden von der KI ausgetrickst und wir wissen es nicht einmal“, erklärte ein Internetnutzer in einem chatgpt/comments/1e9y45j/tldr_ai_is_writing_our_content_and_summarizing_it/“ rel=“nofollow“ data-vars-text=“Reddit“ class=“analytics-hyperlink“>Reddit Post am Dienstag.
„Wir konsumieren Inhalte nicht einmal mehr so, wie sie eigentlich gedacht waren. Wir lassen eine KI entscheiden, was für uns wichtig ist.“
Der Benutzer verurteilte nicht nur Textzusammenfasser, sondern griff auch die generative KI an.
„Inhaltsersteller verwenden mittlerweile auch KI, um ihre Inhalte zu produzieren. Auf der einen Seite erstellt KI also Inhalte, auf der anderen fasst KI diese zusammen“, erklärte er.
„Wo zum Teufel passen wir in dieses Bild? Wir werden zu den ultimativen Mittelsmännern, aber in unserem eigenen Gespräch. Es ist, als würden wir Stille Post spielen, aber an beiden Enden der Leitung sind Roboter und wir geben nur die Nachricht weiter.“
Einige Benutzer widersprachen den Aussagen des ursprünglichen Verfassers. Dazu gehörte auch die Aussage, dass die Mehrheit der Menschen KI verwende – oder dass ihre Verwendung überhaupt so weit verbreitet sei, dass Anlass zur Sorge bestünde.
Andere wiederum argumentierten, dass die Tools perfekt dazu geeignet seien, den Benutzern zu dienen und nur dann eine Bedrohung darstellten, wenn sie von ihrem beabsichtigten Zweck abweichen.
„Wenn ich KI zum Zusammenfassen von Artikeln verwende, bedeutet das wahrscheinlich, dass ich nach etwas suche“, schrieb ein Redditor. „KI wird dann fies, wenn sie vorgibt, ein anderer Mensch zu sein.“
Ein Argument, das unberücksichtigt blieb, war die Möglichkeit einer Verletzung des Datenschutzes.
Künstliche Intelligenz – darunter auch Tools zum Zusammenfassen von Artikeln – lernt aus riesigen Datenmengen, die aus dem Internet stammen.
Die Attraktivität von Chatbots wie ChatGPT beruht zu einem großen Teil auf ihrer Fähigkeit, die einzigartigen Muster der menschlichen Sprache nachzubilden.
Zu diesem Zweck Modelle müssen sich zunächst im richtigen Gespräch üben.
Meta ist nur ein Beispiel für ein Unternehmen, das KI trainiert Modelle basierend auf Informationen aus sozialen Medien.
Im Mai kam der Verdacht auf, das Unternehmen habe seine Sicherheitsrichtlinien in Erwartung negativer Reaktionen geändert, wenn es die Inhalte von Milliarden Instagram- und Facebook-Nutzern abgreife.
Als die Kontroverse zunahm, betonte das Unternehmen, dass es die KI nicht anhand von privaten Nachrichten trainiere, sondern nur anhand von Inhalten, die die Benutzer öffentlich machen wollten, und dass es nie die Konten von Benutzern unter 18 Jahren einbeziehe.
Und was passiert, wenn Menschen zum maschinellen Lernen nicht mehr benötigt werden?
Ein als MAD (Model Autophagy Disorder) bekanntes Phänomen zeigt, wie KI aus KI-generierten Inhalten lernen kann.
Eine Maschine kann ihre eigenen Ausgaben als Datensatz verwenden oder die Ausgaben anderer Modelle.
Forscher der Rice University und der Stanford University gehörten zu den Ersten, die einen Rückgang der Qualität und Vielfalt der Antworten feststellten, wenn kein konstanter Strom neuer, realer Daten zur Verfügung stand.
MAD stellt ein Problem dar, da das Internet immer mehr KI-generierte Inhalte überschwemmt. Es wird immer wahrscheinlicher, dass solches Material ausgelesen und in Trainingsdatensätzen verwendet wird.
Was sind die Argumente gegen KI?
Künstliche Intelligenz ist ein heiß umstrittenes Thema und jeder scheint eine Meinung dazu zu haben. Hier sind einige gängige Argumente dagegen:
Verlust von Arbeitsplätzen – Einige Branchenexperten argumentieren, dass KI neue Nischen auf dem Arbeitsmarkt schaffen wird und dass, während einige Stellen wegfallen, neue entstehen werden. Viele Künstler und Schriftsteller bestehen jedoch darauf, dass das Argument ethischer Natur ist, da generative KI-Tools auf ihre Arbeit trainiert werden und sonst nicht funktionieren würden.
Ethik – Wenn KI anhand eines Datensatzes trainiert wird, wird ein Großteil des Inhalts aus dem Internet übernommen. Dies geschieht fast immer, wenn nicht ausschließlich, ohne die Personen zu benachrichtigen, deren Arbeit übernommen wird.
Datenschutz – Inhalte von persönlichen Social-Media-Konten können Sprachmodellen zum Trainieren zugeführt werden. Bedenken sind aufgekommen, als Meta seine KI-Assistenten auf Plattformen wie Facebook und Instagram vorstellte. Dies war mit rechtlichen Herausforderungen verbunden: 2016 wurde in der EU ein Gesetz zum Schutz personenbezogener Daten erlassen, und in den USA sind ähnliche Gesetze in Arbeit.
Falsche Informationen – Wenn KI-Tools Informationen aus dem Internet beziehen, können sie Dinge aus dem Kontext reißen oder unter Halluzinationen leiden, die unsinnige Antworten produzieren. Tools wie Copilot auf Bing und Googles generative KI bei der Suche laufen immer Gefahr, Dinge falsch zu machen. Einige Kritiker argumentieren, dass dies tödliche Folgen haben könnte – beispielsweise, dass KI die falschen Gesundheitsinformationen verschreibt.
NewsGuard, eine Plattform, die die Glaubwürdigkeit von Nachrichtenseiten bewertet, verfolgt im Internet „durch KI ermöglichte Fehlinformationen“.
Bis Ende 2023 hatte die Gruppe identifiziert 614 unzuverlässige KI-generierte Nachrichten- und Informations-Websites. Seit letzter Woche ist die Zahl geschwollen bis 987.
Die Websites tragen generische Namen, um wie seriöse Nachrichtenseiten auszusehen. Manche enthalten falsche Informationen über Politik und aktuelle Ereignisse, während andere Todesfälle von Prominenten erfinden.
Ein Reddit-Benutzer fasste den Diskurs treffend zusammen.
„Richtig eingesetzt kann KI ein erstaunliches Bearbeitungswerkzeug sein“, schrieb er. „Aber zu viele Leute sind faul und versuchen, den alten Technologiezyklus aufrechtzuerhalten und ihn als einzigen Inhaltsersteller und -editor in einem zu verwenden.“