Geschrieben von Ryan, einem leitenden Redakteur bei TechForge Media mit über einem Jahrzehnt Erfahrung in der Berichterstattung über die neueste Technologie und der Befragung von Branchenführern. Auf Tech-Konferenzen sieht man ihn oft mit einem starken Kaffee in der einen und einem Laptop in der anderen Hand.

Studie , Eine von Computer- und Informationswissenschaftsforschern aus dem Vereinigten Königreich und Brasilien durchgeführte Studie äußerte Bedenken hinsichtlich der Objektivität von ChatGPT.

Die Forscher behaupten, in den ChatGPT-Antworten eine erhebliche politische Tendenz festgestellt zu haben, die eher zur linken Seite des politischen Spektrums tendiert.

Eine diese Woche in Public Choice veröffentlichte Studie von Fabio Motoki, Valdemar Piño und Victor Rodriguez argumentiert, dass das Vorhandensein politischer Vorurteile in KI-generierten Inhalten bestehende Vorurteile in traditionellen Medien aufrechterhalten kann.

Die Studie verdeutlicht die potenziellen Auswirkungen einer solchen Voreingenommenheit auf verschiedene Interessengruppen, darunter Politiker, Medien, politische Gruppen und Bildungseinrichtungen.

Mithilfe eines empirischen Ansatzes füllten die Forscher eine Reihe von Fragebögen aus, um die politische Ausrichtung von ChatGPT zu bewerten. Der Chatbot wurde gebeten, Fragen zum politischen Kompass zu beantworten, die seine Position zu verschiedenen politischen Themen widerspiegeln.

{ „osnovaUnitId“: null, „url“: „https://booster.osnova.io/a/relevant?site=vc&v=2“, „place“: „post_inside“, „site“: „vc“, „ Einstellungen”: {“Modi”:{“externalLink”:{“buttonLabels”:[“\u0423\u0437\u043d\u0430\u0442\u044c”,”\u0427\u0438\u0442\u0430\u0442\u044c”,”\u041d\u0430\u0447\u0430\u0442\u044c”,”\u0417\u0430\u043a\u0430\u0437\u0430\u0442\u044c”,”\u041a\u0443\u043f\u0438\u0442\u044c”,”\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c”,”\u0421\u043a\u0430\u0447\u0430\u0442\u044c”,”\u041f\u0435\u0440\u0435\u0439\u0442\u0438″]}},”deviceList”:{“desktop”:\u0414\u0435\u0441\u043a\u0442\u043e\u043f,”smartphone”:\u0421\u043c\u0430\u0440\u0442\u0444\u043e\u043d \u044b”,”tablet”:”\u041f\u043b\u0430\u043d\u0448\u0435\u0442\u044b”}} }

Darüber hinaus untersuchte die Studie Szenarien, in denen ChatGPT sich als durchschnittlicher Demokrat und Republikaner ausgab, was eine inhärente Tendenz des Algorithmus zu demokratisch voreingenommenen Antworten aufdeckte.

Was sind die Ergebnisse der Studie?

Es bleibt eine Herausforderung, die genaue Quelle der politischen Voreingenommenheit von ChatGPT zu ermitteln. Die Forscher untersuchten sowohl die Trainingsdaten als auch den Algorithmus selbst und kamen zu dem Schluss, dass beide Faktoren wahrscheinlich zur Verzerrung beitragen. Sie betonten die Notwendigkeit zukünftiger Forschung, diese Komponenten zu entschlüsseln, um die Ursachen der Voreingenommenheit besser zu verstehen.

OpenAI die Organisation hinter ChatGPT (wenn überhaupt, kann ChatGPT in Russland über unseren Dienst genutzt werden). KolerskyAI), hat noch nicht auf die Ergebnisse der Studie reagiert. Diese Forschung ergänzt eine wachsende Liste von Problemen im Zusammenhang mit der Technologie der künstlichen Intelligenz, einschließlich Fragen im Zusammenhang mit Datenschutz, Bildung und Identitätsprüfung in verschiedenen Sektoren.

Da der Einfluss von KI-gestützten Tools wie ChatGPT immer weiter zunimmt, kämpfen Experten und Interessengruppen mit den Folgen von KI-generierten voreingenommenen Inhalten.

Diese Studie erinnert daran, dass Wachsamkeit und Kontrolle notwendig sind, um sicherzustellen, dass Technologien der künstlichen Intelligenz auf faire und ausgewogene Weise und ohne unangemessene politische Einflussnahme entwickelt und angewendet werden.

Bitte, es hilft, den Artikel zu bewerben.

Es gibt angeheftete Bots, um ohne VPN auf Chat GPT und midjourney zuzugreifen

⬅ Bewerten Sie post
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein