chatgpt plagiiert Texte, das zeigt eine aktuelle Studie. Die Debatte über generative KI und die Achtung des Urheberrechts wurde neu entfacht.

Copyleaks enthüllte letzte Woche ein vernichtender Bericht über die Konversations-KI von OpenAI. ChatGPT erzeugt Plagiat neuen Forschungsdaten zufolge beträgt der Anteil an Textinhalten bis zu 60 %. Dies soll nicht dazu dienen, Content-Ersteller zu beruhigen, die weiterhin Akteure in der Branche der künstlichen Intelligenz geißeln.

YouTube Video

Betreibt künstliche Intelligenz Plagiate?

Es gibt eine beispiellose Menge an durch künstliche Intelligenz generierten Inhalten im Internet. Ein Bericht vonEuropol, aus dem letzten Jahr, berichtet, dass bis 2026 KI hinter etwa 90 % aller Online-Inhalte stecken wird. Diese Sättigung gibt Anlass zur Sorge Datenverschmutzung und dasunvermeidlicher Zusammenbruch eines gesamten Systems.

Imgsecurity Trust 320X480 1653060105831

Darüber hinaus, die Qualität und Zuverlässigkeit von KI-generierten Texten werden nicht die einzigen Probleme sein. Es stellt sich auch die Frage nach ihrer Originalität.

All diese Bedenken führten Copyleaks um eine eingehende Analyse der beliebten Konversations-KI von durchzuführenOpenAI. Ziel der Untersuchung ist es festzustellen, inwieweit die von ChatGPT generierten Inhalte frei von Plagiaten sind. Es ist zu beachten, dass diese Forschung auf dem basiert Version des Chatbots mit GPT-3.5.

ChatGPT führt 100 % Plagiate in der IT durch!

Copyleaks ist spezialisiert auf Plagiatserkennung unter Verwendung eines künstlichen Intelligenzsystems. Die Plattform ist auch eine KI-generierter Inhaltsdetektor. Sie schreibt a Ähnlichkeitswert Danke an a proprietäre Bewertungsmethode.

YouTube Video

Der Detektor testete daher ChatGPT basierend auf GPT-3.5 an einer Gruppe von 26 Probanden. Es ergab sich Fast 1.000 Ergebnisse mit jeweils 400 Wörtern. L'IT (100 %) ist das Material mit der höchsten Ähnlichkeitsbewertung. Dort Physik (92 %) und das Psychologie (88%) Vervollständigen Sie dann das Podium.

Siehe auch  Sam Altman ChatGPT-Maker OpenAI veröffentlicht Richtlinien zur Bewertung „katastrophaler“ KI-Risiken

Andererseits werden ChatGPT-Plagiate wie folgt verbreitet: 45,7 % identische Texte, 27,4 % geringfügige Änderungen et 46,5 % paraphrasierter Text. So stellt Copyleaks in seinem Bericht fest, dass „ Fast 60 % der Inhalte werden durch KI generiert enthält eine Form von Plagiat ».

Wird OpenAI bald wegen Plagiats verurteilt?

Plagiate beschränken sich nicht nur auf das Kopieren ganzer Sätze oder Absätze. Denken Sie daran, dass die New York Times reichte eine Klage gegen OpenAI ein und beschuldigte das Startup „ Plagiieren im großen Stil “ Sein Inhalt.

Svg%3E
Publithings Seo An Man And An Ai Robot Are Doing A Writing Test 9E72Cf07 66E0 436C 829F Ada1404C7E9F
Wussten Sie ? 60 % Der Plagiierten Texte Werden Von Chatgpt Generiert 4

Content-Ersteller, ob Autoren oder Grafikdesigner, stehen Unternehmen, die sich entwickeln, zunehmend kritisch gegenüber Generative KI. Diese nutzen urheberrechtlich geschützte Inhalte für ihre Ausbildung Sprachmodelle. Dabei entstehen häufig exakte Kopien urheberrechtlich geschützter Werke.

Dies kann eine sein Verletzung geistigen Eigentums. Allerdings ist es den Rechteinhabern bisher nicht gelungen, ihren Fall vor Gericht zu gewinnen. Andererseits ist der Fall zwischen den New York Times und OpenAI liegt seit mehreren Monaten auf Eis. Es bleibt abzuwarten, ob dieser Copyleaks-Bericht dem Ganzen eine neue Wendung geben kann.

    Teilen Sie den Artikel:

Unser Blog wird von Lesern betrieben. Wenn Sie über Links auf unserer Website einkaufen, verdienen wir möglicherweise eine Affiliate-Provision.

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein