[ad_1]

Laut Wall Street Journal hat OpenAI bereits ein KI-Erkennungstool mit einer Genauigkeit von 99,9 % entwickelt. OpenAI debattiert jedoch seit fast zwei Jahren intern darüber, ob dieses Tool veröffentlicht werden soll, und es ist immer noch nicht zur Verwendung freigegeben.

Einerseits kann dieses Tool komplexe Probleme lösen, die sich aus generativer KI ergeben, insbesondere wenn Studenten KI zur Erstellung von Arbeiten und Aufgaben verwenden. Wenn es veröffentlicht werden kann, wird es die Situation im Bildungssektor erheblich verbessern. KI-Erkennung Das Tool verringert die Bereitschaft der chatgpt-Benutzer, es zu verwenden, und wirkt sich negativ auf die Gewinne von OpenAI aus.

Vorteile und Bedenken von KI-Erkennungstools

Laut einer Umfrage des Center for Democracy & Technology gaben 59 % der Lehrer an Mittel- und Oberstufenschulen an, sie seien davon überzeugt, dass einige Schüler KI zum Ausfüllen von Berichten nutzen. Um die Lernergebnisse der Schüler genau zu bewerten und die Fairness der Ergebnisse sicherzustellen, benötigt die Bildungsgemeinschaft dringend ein zuverlässiges Erkennungstool, um festzustellen, ob die Lernergebnisse der Schüler durch KI generiert werden.

Laut einer von OpenAI im April 2023 durchgeführten Umfrage unter ChatGPT-Benutzern beträgt das Verhältnis zwischen Unterstützung und Ablehnung von KI-Erkennungstools 4 zu 1, was darauf hindeutet, dass Benutzer sich im Allgemeinen über die Notwendigkeit dieses Tools einig sind. Gleichzeitig gaben jedoch fast 30 % der Nutzer an, dass sie ChatGPT weniger verwenden und auf andere KI-Tools zurückgreifen würden, wenn ChatGPT Wasserzeichen zu Artikeln hinzufügen würde, um zu erkennen, ob sie von KI generiert wurden.

Siehe auch  KI-Bots wie ChatGPT werden zensiert – aber ich denke, das könnte eine gute Sache sein

Wenn die Erkennungswerkzeuge vollständig freigegeben sind, können sie leicht geknackt werden

Wie funktioniert dieses KI-Erkennungstool? Interne Dokumente von OpenAI zeigen, dass durch eine geringfügige Änderung der KI-Token-Auswahlstrategie der von ChatGPT generierte Text ein erkennbares Wasserzeichen hinterlässt, ohne die Qualität des generierten Inhalts zu beeinträchtigen. Mit diesen Wasserzeichen kann der Artikel zu 99,9 % bestätigt werden Ob er von KI generiert wurde .

Bei OpenAI bestehen Bedenken, dass die Wasserzeichentechnologie geknackt werden könnte, wenn sie zu vielen Menschen zur Nutzung zugänglich gemacht wird. Daher wird derzeit darüber diskutiert, das Tool direkt Bildungseinrichtungen oder Unternehmen zur Verfügung zu stellen, um Schulen bei der Bestätigung zu unterstützen, ob die Arbeiten von Schülern erstellt wurden KI.

Wie können die abgeleiteten Probleme der KI gelöst und gleichzeitig der Verlust von Benutzern vermieden werden? Wie kann OpenAI beides in Einklang bringen? Die Jury steht noch nicht fest. Ein OpenAI-Sprecher sagte: „Angesichts der damit verbundenen Komplexität und der möglichen Auswirkungen auf das breitere Ökosystem über OpenAI hinaus glauben wir, dass dies sorgfältig abgewogen werden muss.“

Quelle:Wallstreet JournalDer Rand

Mehr Abdeckung google 試算表,無痛上手複雜公式;elm:context_link;itc:0;sec:content-canvas“ class=“link „>6 Schritte, um ChatGPT in Excel- und Google-Tabellen einzubinden und problemlos mit komplexen Formeln zu beginnen Der KI-Urheberrechtsstreit ist im Gange! Es wird gemunkelt, dass sich OpenAI in eine gewinnorientierte Organisation verwandeln wird. Wie könnte sich dies auf Urheberrechtsstreitigkeiten über KI-Schulungsmaterialien auswirken? Generative KI strömt in den Bildgebungskreislauf! OpenAI und Google investieren nacheinander. Was sind ihre jeweiligen Stärken?

[ad_2]

5/5 - (301 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein