Das Risiko, dass auf Wikipedia gefälschte Artikel erscheinen, bestand schon immer. Hier nur ein Beispiel: Auf der Seite eines nordirischen Radiomoderators stand zeitweise, er sei ein vielversprechender Breakdancer gewesen, seine Karriere als Tänzer sei jedoch durch eine Rückenverletzung beendet worden. Das war jedoch reines Trolling. Manchmal dienen die gefälschten Informationen jedoch Werbezwecken oder der Verbreitung von Desinformationen. Wikipedia hat eine lange Tradition darin, solche Probleme anzugehen. Seine engagierte Community aus 265.000 aktiven Freiwilligen hat diese Probleme unter Kontrolle gehalten. Doch der Anstieg von Inhalten, die durch künstliche Intelligenz (KI) generiert werden, bringt neue Herausforderungen mit sich.

Mit mehr als 16 Milliarden Besuchen pro Monat steht das Ansehen von Wikipedia außer Frage. Deshalb ist es der beste Ort, um Desinformation oder Marketingbotschaften von Unternehmen oder Einzelpersonen einzufügen. Und mit KI können nach Belieben, einfach und mühelos glaubwürdige Texte erstellt werden.

Nach dem Start von chatgpt erweiterte die Site ihr Team für maschinelles Lernen. Wikipedia-Mitbegründer Jimmy Wales hat gesagt dass KI sowohl „eine Chance als auch eine Bedrohung“ sei. Und in seiner jüngsten Spendenkampagne betonte es die Rolle der Plattform im „Zeitalter der künstlichen Intelligenz“.

Miguel Ángel García, Partner und ehemaliges Vorstandsmitglied von Wikimedia Spanien, gibt zu, dass er bereits auf Texte gestoßen ist, die vermutlich mithilfe von KI erstellt wurden. „Wir haben festgestellt, dass neue Redakteure auftauchen, die Inhalte hinzufügen möchten. Und sie fügen sehr umfangreiche und hochentwickelte Inhalte hinzu, was ungewöhnlich ist. Denn wenn man als Freiwilliger anfängt, baut man die Artikel Stück für Stück auf. Man geht Absatz für Absatz vor.“

García kennt diese Muster gut. Er begann 2006, als er noch auf der High School war, Beiträge für Wikipedia zu verfassen. Er korrigierte gelegentlich Rechtschreibfehler oder nahm offensichtliche grammatikalische Änderungen vor. Seinen ersten Artikel verfasste er, weil er einen Aufsatz über das Dorf seiner Eltern, Campaspera, in der Nähe der spanischen Stadt Valladolid, geschrieben hatte. Auf der Website gab es keine Informationen über diese Stadt, also lud er seinen Text mit Fotos hoch, die er selbst aufgenommen hatte.

Siehe auch  Die ChatGPT-Schnittstelle wurde aktualisiert, um die Verwendung zu vereinfachen, und bietet außerdem die offizielle Mac-App – unwire.hk Hong Kong

„Seit es künstliche Intelligenz gibt, gibt es immer mehr Freiwillige, die einem einen riesigen Text vorlegen, der anscheinend gut strukturiert und ausgereift ist. Doch dann liest man ihn und entdeckt Redundanzen, die ein Mensch in Texten, die mit künstlicher Intelligenz erstellt wurden, oft erkennen kann“, sagt García und meint damit Slogans und eine bestimmte Art der Informationspräsentation mit abgedroschenen Einleitungen und Schlussfolgerungen.

Solche Texte laufen Gefahr, in einem Meer von über 62 Millionen Artikeln in mehr als 300 Sprachen unterzugehen. Chris Albon, Leiter für maschinelles Lernen bei der Wikimedia Foundation, die Wikipedia kontrolliert, weist darauf hin, dass einige Freiwillige seit 2002 KI-Tools verwenden, insbesondere bei redundanten Aufgaben. Technologie ist für sie nichts Neues. Und der Schlüssel zur Kontrolle unangemessener Texte liegt genau in der Gemeinschaft der Freiwilligen, die den Inhalt moderieren. Sie schreiben nicht nur Texte, sondern bearbeiten sie auch und bestimmen, welche möglicherweise nicht wertvoll sind.

„In diesem neuen Zeitalter der künstlichen Intelligenz ist die Stärke dieses von Menschen geleiteten Modells der Inhaltsmoderation relevanter. Das Modell von Wikipedia, das auf Debatten, Konsens und strengen Regeln für das Zitieren basiert, [sources]hat sich in den letzten zwei Jahrzehnten als robust bei der Aufrechterhaltung der inhaltlichen Qualität erwiesen“, sagt Albon. Alle Texte müssen mit Sekundärquellen, also Links zu Seiten auf anderen Websites, referenziert werden.

Verdächtiger Anstieg nach ChatGPT

Wenn ein Artikel keine Quellen enthält, erkennt die Community der Freiwilligen dies und ergreift Maßnahmen. „In den meisten Fällen werden Artikel sofort gelöscht, da man mit nur zwei Klicks erkennen kann, dass der Text völlig sinnlos ist. Andernfalls werden sie normalerweise für die automatische Löschung innerhalb einer Frist von maximal 30 Tagen markiert, wenn der Autor nicht in der Lage ist, das Geschriebene anhand von Quellen nachzuweisen“, erklärt García.

Siehe auch  ChatGPT ist jetzt fertig, OpenAI entwickelt „revolutionäre“ KI-Agenten, die noch komplexere Aufgaben automatisieren können

Der Partner von Wikimedia Spanien sagt, dass es beim Aufkommen von ChatGPT einen Höhepunkt der von KI generierten Texte gab, die auf die Site hochgeladen wurden. Aber jetzt hat sich der Trend dank der Bemühungen der Community stabilisiert. Albon seinerseits sagt, dass wir lernen müssen, mit diesen Tools zu leben. „Wikipedias Ansatz zur KI bestand schon immer darin, dass Menschen die Arbeit der KI bearbeiten, verbessern und prüfen. Freiwillige erstellen die Richtlinien für den verantwortungsvollen Einsatz von KI-Tools auf Wikipedia und überwachen deren korrekte Anwendung“, sagt er. Die Site bestraft nicht den Einsatz künstlicher Intelligenz in Texten, sondern diejenigen, die die in ihren Richtlinien geforderte Qualität nicht erfüllen.

Laut García kommt das größte Risiko für Wikipedia von außerhalb der Plattform. Die Plattform stützt sich auf Sekundärquellen. „Ich sehe ein mittelfristiges Problem in Bezug auf mögliche KI-generierte Texte, die in der realen Welt zu scheinbar verlässlichen Quellen werden. Es entstehen immer mehr digitale Zeitungen, die fast alles veröffentlichen. Irgendwann kommt der Punkt, an dem es Leute gibt, die Texte mit diesen Pseudomedien zitieren wollen“, sagt er.

Die Lösung liegt, wie fast alles auf der Plattform, bei den Redakteuren. Wenn Freiwillige feststellen, dass eine Website unzuverlässig ist, kann die Community entscheiden, sie auf die schwarze Liste zu setzen. Dies ist bei etablierten Medien passiert, darunter dem Tägliche PostDas britische Boulevardblatt war bereits vor einigen Jahren als Quelle gesperrt worden, weil es wiederholt ungeprüfte Informationen veröffentlicht hatte.

Wikipedia vs. KI-Chatbots

Es gibt noch eine weitere Sorge bezüglich der Zukunft von Wikipedia im Zeitalter der künstlichen Intelligenz. In einem hypothetischen Szenario, in dem Chatbots wie ChatGPT oder google Gemini Benutzeranfragen mit einer Zusammenfassung beantworten, wer wird dann Wikipedia-Artikel besuchen? Und – noch wichtiger – wer wird sie bearbeiten?

Siehe auch  ChatGPT für einige Benutzer nicht verfügbar: Details

„Wenn es eine Trennung gibt zwischen dem Ort, an dem Wissen generiert wird, wie etwa auf Wikipedia, und dem Ort, an dem es genutzt wird, wie etwa auf ChatGPT, laufen wir Gefahr, eine Generation von Freiwilligen zu verlieren“, argumentiert Albon.

Auch die Verknüpfung wissensreicher Websites mit KI-Chatbots, die dieses Wissen extrahieren und replizieren, ist ein allgemeines Problem. „Ohne klare Zuordnung und Links zur ursprünglichen Quelle, aus der die Informationen stammen, besteht bei KI-Anwendungen die Gefahr, eine beispiellose Menge an Fehlinformationen in die Welt zu bringen. Benutzer werden nicht mehr so ​​leicht zwischen korrekten Informationen und Halluzinationen unterscheiden können. Wir haben viel über diese Herausforderung nachgedacht und glauben, dass die Lösung in der Zuordnung liegt“, sagt Wikimedias Machine Learning Director.

Der Zeitpunkt ist ironisch. Denn wie wir wissen, basieren Anwendungen wie ChatGPT oder Google Gemini auf Systemen, die mit Wikipedia-Inhalten trainiert wurden. Ein Teil des von großen Sprachmodellen (LLM) erworbenen Wissens stammt also aus den Millionen und Abermillionen von Artikeln, die von Freiwilligen hochgeladen und bearbeitet werden.

Registrieren Sie sich für unser wöchentlicher Newsletter um mehr englischsprachige Berichterstattung von EL PAÍS USA Edition zu erhalten

5/5 - (142 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein