[ad_1]
Seit OpenAI chatgpt eingeführt hat, gibt es endlose Diskussionen darüber, dass Studenten damit bei ihren Hausaufgaben schummeln. Wenn OpenAI ein eigenes Anti-Cheating-Tool auf den Markt bringt, denken Studenten möglicherweise zweimal darüber nach, ob sie ChatGPT zum Verfassen ganzer Arbeiten und Forschungsarbeiten verwenden. OpenAI hat ein Tool entwickelt, das möglicherweise Schüler erwischt, die ChatGPT bitten, bei ihren Hausaufgaben zu schummeln, aber lautWallstreet Journal” berichtete, dass das Unternehmen immer noch darüber diskutiert, ob das Tool tatsächlich eingeführt werden soll.
OpenAI verfolgt einen „überlegten Ansatz“ bei der Entwicklung von Tools, um zu erkennen, was ChatGPT schreibt
Laut einem Bericht des Wall Street Journal vom 4. August bestätigte OpenAI, dass sie ein Tool zur Erkennung der von ChatGPT geschriebenen Inhalte entwickelt haben. Ein OpenAI-Sprecher sagte gegenüber ausländischen Medien TechCrunch, verfolgt das Unternehmen einen durchdachten Ansatz bei der Erkennung von KI-geschriebenem Text aufgrund „der damit verbundenen Komplexität und der möglichen Auswirkungen auf das breitere Ökosystem über OpenAI hinaus“. Die Erkennungstechnologie von OpenAI kann von KI erzeugte Wasserzeichen erfassen und einen Wahrscheinlichkeitswert dafür berechnen, dass die gesamte Datei oder ein Teil davon von ChatGPT geschrieben wird.
Das Textwasserzeichen von OepanAI kann von ChatGPT generierten Text mit einer Genauigkeit von bis zu 99,9 % erkennen. Sam Altman, CEO von OpenAI, und Mira Murati, Chief Technology Officer, haben die Funktion noch nicht veröffentlicht, da sie nicht ganz effektiv ist und ihrem Geschäft schaden könnte. Berichten zufolge funktioniert es, indem es den Token-Auswahlprozess von ChatGPT ändert, um ein erkennbares Muster, ein sogenanntes Wasserzeichen, zu erstellen, das Sie nicht bemerken, der Algorithmus jedoch schon. Der Sprecher erklärte: „Die Textwasserzeichen, die wir entwickeln, sind technisch vielversprechend, aber wenn wir nach Alternativen suchen, wägen wir erhebliche Risiken ab, darunter die leichte Umgehung durch böswillige Akteure und die unverhältnismäßige Beeinträchtigung von Gruppen wie Nicht-Englisch-Muttersprachlern. Potenzial für Auswirkungen.“
Obwohl Wasserzeichen sehr effektiv sind, werden sie nicht vollständig versiegelt und können verloren gehen, wenn der Text mithilfe eines anderen Modells neu zusammengesetzt wird, der Text in eine andere Sprache übersetzt wird und wieder zurück oder indem Emojis, die ChatGPT möglicherweise dem Text hinzugefügt hat, leicht entfernt werden. Nun behauptet OpenAI, dass seine Tools Manipulationen wie Paraphrasierung verhindern können. Das Unternehmen bestätigte in einem Blogbeitrag, dass es derzeit die Verwendung kryptografisch signierter Metadaten in Texten testet, um Fehlalarme zu vermeiden.
OpenAI befürchtet, dass Benutzer verloren gehen könnten, wenn die Erkennungsfunktion online geht. Zuvor hatte das Unternehmen ein Tool zur Aufnahme von Bildern von DALL-E 3-Builds veröffentlicht. OpenAI erwägt sogar die Bereitstellung eines Wasserzeichen-Tools für Pädagogen oder Unternehmen, um Schulen dabei zu helfen, plagiierte Arbeiten zu erkennen, was dazu beitragen könnte, negative Reaktionen einzudämmen. Es ist kein Geheimnis, dass Chatbots wie ChatGPT leicht missbraucht werden können, um auf der Grundlage einer einzigen Eingabeaufforderung ganze Aufsätze zu erstellen, und Pädagogen sind sich dieses Problems durchaus bewusst.Das beweist eine aktuelle Umfrage des Center for Democracy and Technology (CDT).haben Pädagogen hart daran gearbeitet, das Problem der generativen KI-Erkennung zu lösen, wobei bis zu 59 % der Mittel- und Oberstufenlehrer herausfanden, dass Schüler KI missbrauchten, um bei Hausaufgaben zu betrügen, was einem deutlichen Anstieg von 17 Prozentpunkten gegenüber dem vorherigen Schuljahr entspricht .
OpenAI ist hin- und hergerissen zwischen seinem Engagement für Transparenz und der Notwendigkeit, Einnahmen zu erzielen, aber es hat eine moralische Verpflichtung, das Richtige zu tun, und der Mangel an Erkennungsmethoden für andere KI-Tools ist für ChatGPT keine Entschuldigung, die Implementierung der Funktion zu überspringen.
[ad_2]