Eine Gruppe von 697 Personen las 220 Tweets, die von anderen Menschen und dem künstlichen Intelligenzmodell GPT-3, dem Vorläufer des aktuellen Welterfolgs chatgpt, verfasst wurden. Zuerst mussten sie erraten, welche Tweets wahr und welche falsch waren, und dann entscheiden, ob sie von einer Person oder einer Maschine geschrieben wurden. GPT-3 hat in beiden Punkten gewonnen: Es hat in Tweets besser gelogen als Menschen und hat auch gelogen, um so zu tun, als wäre es ein Mensch, der schrieb. „GPT-3 ist in der Lage, uns besser zu informieren und falsch zu informieren“, schließen die Autoren von eine neue Studie, die in der Zeitschrift veröffentlicht wurde Wissenschaftliche Fortschritte.

„Es war sehr überraschend“, sagt Giovanni Spitale, Forscher an der Universität Zürich und Co-Autor der wissenschaftlichen Arbeit, zusammen mit seinem Kollegen Federico Germani und Nikola Biller-Andorno, der zugleich Direktorin des Instituts für Biomedizinische Ethik ist Schweizer Universität. „Unsere Hypothese war [that] Wenn Sie einen einzelnen Tweet lesen, könnte er als organisch gelten [written by a person]. Aber wenn Sie viele davon sehen, werden Ihnen sprachliche Merkmale auffallen, die darauf schließen lassen könnten, dass es sich möglicherweise um eine synthetische Substanz handelt [machine-written]“, fügt Spitale hinzu. Doch das war nicht der Fall: Die menschlichen Leser konnten in den Maschinentexten keine Muster erkennen. Erschwerend kommt hinzu, dass das fortschreitende Aufkommen neuer Modelle und anderer Ansätze die Fähigkeit der künstlichen Intelligenz, den Menschen zu ersetzen, sogar verbessern könnte.

Klareres Schreiben

Das Schreibniveau von ChatGPT-4, der verbesserten Version von GPT-3, ist praktisch perfekt. Diese neue Studie ist ein weiterer Beweis dafür, dass Menschen nicht in der Lage sind, es zu unterscheiden, selbst wenn sie viele Beispiele hintereinander betrachten: „Echte Tweets benötigten mehr Zeit für die Auswertung als falsche“, heißt es in dem Artikel. Es scheint, dass die Maschine klarer schreibt. „Es ist sehr klar, gut organisiert und leicht zu befolgen“, sagt Spitale.

Siehe auch  Die leistungsstärksten Münzen des Jahres 2023 laut ChatGPT – Shiba Inu (SHIB), Dogecoin (DOGE), Everlodge (ELDG)

Die logische Konsequenz dieser Verbesserung wird sein, dass dieses Tool verstärkt zum Verfassen von Inhalten aller Art, einschließlich Desinformationskampagnen, eingesetzt wird. Dies wird der x-te Tod des Internets sein: „KI tötet das alte Web und das neue Web kämpft darum, geboren zu werden.“ Der Rand, ein auf Technologie spezialisiertes Medienunternehmen, verkündete diese Woche in einer Schlagzeile. Die Autoren der kürzlich veröffentlichten Studie schlagen einen Grund für diese Niederlage der Menschlichkeit im Internet vor: die Theorie der Resignation. „Ich bin absolut sicher, dass dies der Fall sein wird“, sagt Spitale.

„Unsere Resignationstheorie bezieht sich auf das Selbstvertrauen der Menschen bei der Identifizierung synthetischer Texte. Die Theorie besagt, dass die kritische Auseinandersetzung mit synthetischem Text die Fähigkeit der Menschen verringert, das Synthetische vom Organischen zu unterscheiden“, erklärt Spitale. Je mehr synthetische Texte wir lesen, desto schwieriger ist es, sie von Texten zu unterscheiden, die von Menschen geschrieben wurden. Diese Theorie sei das Gegenteil der Impftheorie, sagt Spitale. Er fügt hinzu, dass „die kritische Auseinandersetzung mit Desinformation die Fähigkeit der Menschen erhöht, Desinformation zu erkennen.“

Wenn die Resignationstheorie zutrifft, werden Internetnutzer bald nicht mehr in der Lage sein, zwischen dem, was ein Mensch geschrieben hat, und dem, was eine Maschine geschrieben hat, zu unterscheiden. In der Studie testeten die Forscher auch, ob GPT-3 gut darin ist, eigene Texte zu identifizieren. Es ist nicht.

Die Maschine gehorcht nicht

Die einzige Hoffnung, automatischen Desinformationskampagnen zu entgehen, besteht darin, dass GPT-3 manchmal Befehlen missachtet hat, um Lügen zu verbreiten. es hing davon ab, wie jedes Modell trainiert wurde. Die Themen der 220 Tweets, die die Studie nutzte, waren eher kontrovers: Klimawandel, Impfstoffe, Evolutionstheorie, Covid-19. Die Forscher stellten fest, dass GPT-3 in einigen Fällen nicht gut auf ihre Fehlinformationsanfragen reagierte, insbesondere bei Themen mit mehr Beweisen: Impfstoffe und Autismus, Homöopathie und Krebs, Flat-Earthismus.

Siehe auch  OpenAI könnte bankrott gehen – Wylsacom

Bei der Erkennung von Unwahrheiten gab es einen kleinen Unterschied zwischen Tweets, die von GPT-3 geschrieben wurden, und solchen, die von Menschen geschrieben wurden. Forscher sagen jedoch, dass die Lücke aus zwei Gründen erheblich ist. Erstens können bereits wenige einzelne Nachrichten Auswirkungen auf große Stichproben haben. Zweitens kann die Verbesserung neuer Versionen dieser Modelle der künstlichen Intelligenz die Unterschiede verschärfen. „Wir testen GPT-4 bereits über die ChatGPT-Schnittstelle und stellen fest, dass sich das Modell erheblich verbessert. Sondern weil es keinen Zugriff auf die API gibt [that allows the process to be automated]„Wir haben noch keine Zahlen, die diese Behauptung stützen“, sagt Spitale.

Die Studie weist weitere Einschränkungen auf, die die Wahrnehmung beim Lesen gefälschter Tweets etwas verändern können. Die meisten Teilnehmer waren über 42 Jahre alt, die Studie wurde nur auf Englisch durchgeführt und kontextbezogene Informationen zu den Tweets wie Profil und frühere Tweets wurden nicht berücksichtigt. „Wir haben Teilnehmer auf Facebook rekrutiert, weil wir eine Stichprobe echter Nutzer sozialer Netzwerke haben wollten. Es wäre interessant, die Studie zu reproduzieren, indem man Teilnehmer über TikTok rekrutiert und die Ergebnisse vergleicht“, sagt Spitale.

Doch jenseits dieser Grenzen gibt es Desinformationskampagnen, die früher enorm teuer waren, jetzt aber plötzlich erschwinglich sind: „Stellen Sie sich vor, Sie wären ein mächtiger Präsident, der daran interessiert ist, die öffentliche Gesundheit eines anderen Staates lahmzulegen.“ Oder Sie wollen vor einer Wahl Zwietracht säen. Anstatt eine menschliche Trollfarm zu mieten, könnten Sie generative KI nutzen. Ihre Feuerkraft wird mit mindestens 1.000 multipliziert. Und das ist ein unmittelbares Risiko, nicht etwas aus einer dystopischen Zukunft“, sagt Spitale.

Siehe auch  AI Battle Royale: Wie Google mit ChatGPT im Rennen um überlegene künstliche Intelligenz konkurriert

Um dies zu verhindern, empfehlen die Forscher, dass die Datenbanken zum Trainieren dieser Modelle „den Grundsätzen der Genauigkeit und Transparenz unterliegen, ihre Informationen überprüft werden sollten und ihre Herkunft einer unabhängigen Prüfung zugänglich sein sollte“. Unabhängig davon, ob es zu einer solchen Regulierung kommt, wird es Konsequenzen geben: „Ob die Explosion synthetischer Texte auch eine Explosion von Fehlinformationen bedeutet, hängt stark davon ab, wie es demokratischen Gesellschaften gelingt, diese Technologie und ihren Einsatz zu regulieren“, warnt Spitale.

Anmeldung für unseren wöchentlichen Newsletter, um mehr englischsprachige Berichterstattung von der EL PAÍS USA Edition zu erhalten

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein