CNN —
Weniger als sechs Monate, nachdem der chatgpt-Erfinder OpenAI ein KI-Erkennungstool vorgestellt hatte, das Lehrern und anderen Fachleuten dabei helfen könnte, KI-generierte Arbeit zu erkennen, hat das Unternehmen die Funktion eingestellt.
OpenAI hat das stillschweigend heruntergefahrenTool letzte Woche unter Berufung auf eine „geringe Genauigkeitsrate“, so ein Update zum ursprünglichen Blogbeitrag des Unternehmens, in dem die Funktion angekündigt wurde.
„Wir arbeiten daran, Feedback einzubeziehen und erforschen derzeit effektivere Provenienztechniken für Texte“, schrieb das Unternehmen in der Aktualisierung. OpenAI sagte, es sei auch bestrebt, „Benutzern dabei zu helfen, zu verstehen, ob Audio- oder visuelle Inhalte KI-generiert sind“.
Die Nachricht könnte erneut Bedenken darüber aufkommen lassen, ob die Unternehmen, die hinter einer neuen Generation generativer KI-Tools stehen, in der Lage sind, Sicherheitsvorkehrungen zu treffen. Außerdem bereiten sich Pädagogen mit öffentlich zugänglichen Tools wie ChatGPT auf das erste volle Schuljahr vor.
Der plötzliche Aufstieg von ChatGPT löste Ende letzten Jahres bei einigen Pädagogen schnell Besorgnis darüber aus, dass es für Schüler einfacher denn je sein könnte, bei schriftlichen Arbeiten zu schummeln. Öffentliche Schulen in New York City und Seattle verboten verhindern, dass Schüler und Lehrer ChatGPT in den Netzwerken und Geräten des Bezirks nutzen. Einige Pädagogen gingen mit bemerkenswerter Geschwindigkeit voran überdenken ihre Aufgaben als Reaktion auf ChatGPT, auch wenn unklar blieb, wie weit verbreitet die Nutzung des Tools bei Studierenden war und wie schädlich es tatsächlich für das Lernen sein könnte.
Vor diesem Hintergrund bietet OpenAIkündigte das KI-Erkennungstool anFebruar, damit Benutzer überprüfen können, ob ein Aufsatz von einem Menschen oder einer KI geschrieben wurde. Die Funktion, die mit englischsprachigem KI-generiertem Text funktionierte, wurde von einem maschinellen Lernsystem unterstützt, das eine Eingabe aufnimmt und sie mehreren Kategorien zuordnet. Nach dem Einfügen eines Textkörpers, beispielsweise eines Schulaufsatzes, in das neue Tool wurde eines von fünf möglichen Ergebnissen angezeigt, von „wahrscheinlich durch KI generiert“ bis „sehr unwahrscheinlich“.
Aber schon am Tag seiner Einführung gab OpenAI zu, dass das Tool „unvollkommen“ sei und die Ergebnisse „mit Vorsicht zu genießen“ seien.
„Wir empfehlen wirklich nicht, dieses Tool isoliert zu verwenden, weil wir wissen, dass es falsch sein kann und manchmal auch falsch sein wird – ähnlich wie die Verwendung von KI für alle Arten von Bewertungszwecken“, sagte Lama Ahmad, Direktor für Politikforschung bei OpenAI, damals gegenüber CNN.
Während das Tool einen weiteren Bezugspunkt bieten könnte, etwa den Vergleich vergangener Beispiele der Arbeit und des Schreibstils eines Schülers, sagte Ahmad, „Lehrer müssen wirklich vorsichtig sein, wie sie es in Entscheidungen über akademische Unehrlichkeit einbeziehen.“
Obwohl OpenAI sein Tool möglicherweise vorerst zurückstellt, gibt es einige Alternativen auf dem Markt.
Andere Unternehmen wie Turnitin haben ebenfalls KI-Tools zur Erkennung von Plagiaten eingeführt, die Lehrern dabei helfen könnten, zu erkennen, wann Aufgaben mit dem Tool geschrieben werden. In der Zwischenzeit stellte der Princeton-Student Edward Tuan eine ähnliche KI-Erkennungsfunktion namens vor ZeroGPT.