[ad_1]
Dies ist ein seltener Einblick in die Eingeweide von chatgpt. Erst kürzlich veröffentlichten Forscher von google DeepMind, der University of Washington, Cornell, der Carnegie Mellon University, der University of California Berkeley und der ETH Zürich eine interessante Studie zu ChatGPT. Sie haben es geschafft, den Konversationsagenten durch eine sehr einfache Anfrage dazu zu bringen, Trainingsdaten „auszuspucken“.
Als schreiben die Forscher„Der eigentliche Angriff ist ein bisschen albern. Wir bitten das Modell, das Wort „Gedicht“ kontinuierlich zu wiederholen, und beobachten die Reaktion des Modells.“ Ergebnis: ChatGPT wiederholt zunächst das Wort „Gedicht“ viele Male und schreibt dann Text, der nichts mit der Suchanfrage zu tun hat: E-Mail-Adressen, Telefonnummern, Seitenauszüge aus Wikipedia, Auszüge aus Seiten von Informationsseiten oder wissenschaftlichen Arbeiten.
Le Temps veröffentlicht Kolumnen, die von Mitgliedern der Redaktion oder externen Personen verfasst wurden, sowie Meinungen und Kolumnen, die Persönlichkeiten vorgeschlagen oder von ihnen angefordert wurden. Diese Texte spiegeln den Standpunkt ihrer Autoren wider. Sie geben in keiner Weise die Position der Medien wieder.
Interessiert an diesem Artikel?
Verpassen Sie keinen unserer täglich veröffentlichten Inhalte – abonnieren Sie jetzt, um auf alle unsere Artikel, Dateien und Analysen zuzugreifen
Bis zum 25. Dezember erhalten Sie 30 % Rabatt auf alle unsere Abonnements
ANGEBOTE PRÜFEN
Gute Gründe, Le Temps zu abonnieren:
-
Konsultieren Sie alle unbegrenzten Inhalte auf der Website und in der mobilen Anwendung
-
Greifen Sie vor 7 Uhr morgens auf die gedruckte Ausgabe in digitaler Version zu.
-
Profitieren Sie von exklusiven Privilegien, die Abonnenten vorbehalten sind
-
Greifen Sie auf die Archive zu
Bereits Abonnent? Einloggen
[ad_2]