« Antwort neu generieren. » Generieren Sie eine neue Antwort.

Hier ist der Text der Schaltfläche, die sich unter jedem vom chatgpt-Konversationsroboter generierten Text befand, damit Benutzer eine neue Antwort auf ihren Befehl erhalten können.

Bis vor kurzem war dieser Text auch eine der einfachsten Möglichkeiten, durch künstliche Intelligenz generierte Inhalte im Web zu finden. Tatsächlich kam es vor, dass Leute, die es etwas eilig hatten, den von ChatGPT erstellten Text kopierten und einfügten, aber versehentlich das „ Reaktion regenerieren » im Button enthalten.

Ergebnis: eine einfache Suche mit den Worten „ Reaktion regenerieren » Auf allen möglichen Plattformen war es möglich, eine ganze Reihe künstlicher Texte zu finden, die mit diesem Tool erstellt wurden, von Robotertexten auf X über Kleinanzeigen bis hin zu Veröffentlichungen auf Facebook.

Dieser einfache Trick ermöglichte es dem Informatikprofessor Guillaume Cabanac, die Autoren zu entlarven (Neues Fenster) von mehr als einem Dutzend wissenschaftlicher Artikel, die ChatGPT als Teil ihrer Arbeit verwendeten, ohne dies zu deklarieren.

Und das ist nur die Spitze des Eisbergs: Wie viele von jeder Person, die vergessen hat, dieses kleine Stück Text zu löschen, hatten den Reflex, es zu tun? Ein einfaches erneutes Lesen reicht aus.

Der ChatGPT-Konversationsroboter wurde im November 2022 der breiten Öffentlichkeit zugänglich gemacht.

Foto: Radio-Canada / Der Lebensmittelladen

Subtile, aber wichtige Änderungen

Aber wenn wir hier im Unvollkommenen schreiben, dann deshalb, weil OpenAI irgendwann in den letzten Tagen die ChatGPT-Schnittstelle geändert hat. Die Taste “ Reaktion regenerieren »wurde einfach „ regenerieren ».

Siehe auch  McDonald's tritt in die Metaverse ein und meldet eine Marke für virtuelle Restaurants, Waren und Dienstleistungen an

Eine ziemlich triviale Änderung, die manche sagen würden, aber mit der Folge, dass es schwieriger wird, Veröffentlichungen zu finden, die versehentlich den Schaltflächentext enthalten. Wort “ regenerieren » ist in der englischen Sprache so verbreitet, dass durch künstliche Intelligenz (KI) generierte Texte im Dschungel des Webs untergehen.

Und das ist nicht alles. Andere gängige Formulierungen, mit denen ChatGPT die Produktion von Texten verweigerte, die gegen seine Nutzungsbedingungen verstießen – zum Beispiel sexistische, rassistische oder grobe Inhalte –, scheinen laut von durchgeführten Tests nicht mehr vom Roboter verwendet zu werden Entschlüsseler.

Diese Formulierungen, wie z als KI et als KI-Sprachmodellwurden durch viel banalere Phrasen ersetzt.

Bei einem Test, den wir im Juni durchgeführt haben, haben wir ChatGPT gebeten, Informationen zu einem aktuellen Thema zu überprüfen. Damals lehnte der Roboter ab und antwortete: Als von OpenAI trainierte KI habe ich keinen Zugriff auf das Internet in Echtzeit, um Nachrichtenereignisse zu überprüfen.

Bei unserem gestrigen Test antwortete ChatGPT einfach: Ich kann das konkrete Ereignis, um das es sich handelt, nicht verifiziereneine viel gewöhnlichere Formulierung als die formelhaftere Antwort, die Anfang des Sommers angeboten wurde.

Formatierte ChatGPT-Antworten wurden beispielsweise von einigen dazu verwendet Finden Sie automatisierte Konten (Neues Fenster) auf X. Diese Bots, von denen vermutet wurde, dass sie so programmiert waren, dass sie automatisch auf andere Konten auf der Plattform reagierten, veröffentlichten häufig diese Fehlermeldungen.

Soweit wir sehen können, tauchen diese Formulierungen seit Juli auf X deutlich seltener auf. Es lässt sich nicht sagen, ob das daran liegt, dass ChatGPT nicht mehr die alten Fehlermeldungen verwendet oder ob es weniger Bots auf der Plattform gibt.

Siehe auch  Umfrage: ChatGPT ist am zahlungswilligsten, Bard liegt an zweiter Stelle, Bing am wenigsten | TechNews Technology Neuer Bericht

Es lässt sich auch nicht sagen, ob diese Formulierungen aus ChatGPT verschwunden sind oder ob sie einfach deutlich seltener vorkommen. Doch Befehle, die zuvor dafür gesorgt hätten, dass der Chatbot diese Sätze zuverlässig aussprach, funktionierten in unseren letzten Tests nicht.

Sam Altman, Ceo Von Openai Mission, Spricht Am 16. Mai In Ein Mikrofon.

Laut seinem CEO Sam Altman besteht die Mission von OpenAI darin, sicherzustellen, dass künstliche Intelligenz der gesamten Menschheit zugute kommt.

Foto: (Patrick Semansky/The Associated Press)

Es muss noch mehr getan werden, sagen Ethikexperten

Für den leitenden Forscher am Digital and AI Ethics Laboratory, Frédérick Bruneault, stellt diese neue Entwicklung ein Problem für die Erkennung von KI-generierten Texten dar, da die verfügbare Erkennungssoftware einfach nicht zuverlässig ist (Neues Fenster).

„Das war der einfachste Weg, um zu erkennen, dass es sich um vom Chatbot generierten Text handelte. Dies erhöht die Schwierigkeit, die mit all diesen Problemen verbunden ist, beispielsweise mit dem Bildungssektor, der dadurch völlig auf dem Kopf steht. „Wir können die soziale Verantwortung von Unternehmen wie OpenAI in Frage stellen“, glaubt Herr Bruneault.

Dominic Martin, Leiter der Abteilung für Ethik der künstlichen Intelligenz am Centre for Research in Ethics der Universität Montreal, hält es für durchaus möglich, dass die generischen Formulierungen geändert wurden, um den Roboter eher wie ein menschliches Wesen sprechen zu lassen, aber diese Änderung bleibt problematisch.

Wir müssen zunehmend wissen, wann Inhalte von einer KI in verschiedenen Umgebungen generiert wurden, und wir brauchen viel mehr als ein Modell, das uns manchmal in seinen Antworten sagt, dass es sich um einen Konversationsroboter handeltanalysiert er und erinnert daran, dass diese Techniken nur die Identifizierung ermöglichten Menschen mit schlechten Absichten, die sich überhaupt nicht zwingen.

Siehe auch  Socceroos gegen VAE: Wer, wo, wann und alles andere, was Sie vor Australiens wichtigstem WM-Qualifikationsspiel wissen müssen

Die Idee eines Wasserzeichens wurde insbesondere von einigen Experten erwähnt (Neues Fenster)nicht wahr, M. Martin.

OpenAI antwortete nicht auf unsere E-Mail mit der Frage, warum „ Reaktion regenerieren »und ChatGPT-Fehlermeldungen wurden geändert. Also haben wir ChatGPT selbst gefragt. „Ich wurde darauf programmiert, unterschiedliche Antworten anzubieten, um unsere Gespräche spannender und weniger eintönig zu gestalten“, antwortete der Roboter.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein