Die Technologie soll „99,9 % effektiv“ sein, aber auch relativ leicht zu löschen sein. Aus diesem Grund hat das Unternehmen es immer noch nicht öffentlich gemacht, obwohl es zur Erkennung von Texten beitragen könnte, die durch generative künstliche Intelligenz generiert wurden.
Das Wall Street Journal chatgpt-openai-hasn-t-released-it/ar-AA1octCH“ target=“_blank“ rel=“noreferrer noopener“>eine Appris Aus mehreren Quellen geht hervor, dass OpenAI ein Tool entwickelt hat, mit dem eine Signatur mit einem Wasserzeichen versehen werden kann, wodurch der von ChatGPT generierte Inhalt identifiziert werden kann. Das Projekt wäre ein Jahr lang verfügbar gewesen, wäre aber „ Ich war etwa zwei Jahre lang in internen Debatten bei OpenAI verstrickt ».
Berichten zufolge sind die Mitarbeiter von OpenAI immer noch unschlüssig, ob sie die erklärte Verpflichtung des Startups zur Transparenz respektieren oder ob sie seine Nutzer anziehen und halten möchten. Eine vom Unternehmen unter treuen ChatGPT-Nutzern durchgeführte Umfrage ergab, dass „ Fast ein Drittel von ihnen ließe sich durch die Anti-Cheat-Technologie abschrecken », präzisiert das WSJ.
Laut einem OpenAI-Sprecher befürchtet das Unternehmen auch, dass das Tool Gruppen unverhältnismäßig stark beeinträchtigen wird, beispielsweise Menschen, für die Englisch nicht ihre Muttersprache ist: „ Die von uns entwickelte Wasserzeichenmethode ist technisch vielversprechend, birgt jedoch erhebliche Risiken, die wir bei der Suche nach Alternativen abwägen. ».
99,9 % wirksam, aber … leicht zu löschen
Mitarbeiter, die die Verbreitung des Tools unterstützen oder an seiner Entwicklung beteiligt waren, sind hingegen der Meinung, dass diese Argumente „ waren im Vergleich zu den Vorteilen, die diese Technologie mit sich bringen könnte, unbedeutend », mildert das WSJ.