Geschrieben von Ryan, einem leitenden Redakteur bei TechForge Media mit über einem Jahrzehnt Erfahrung in der Berichterstattung über die neueste Technologie und der Befragung von Branchenführern. Auf Tech-Konferenzen sieht man ihn oft mit einem starken Kaffee in der einen und einem Laptop in der anderen Hand.
{„id“:811115,“type“num“,“link“https:\/\/vc.ru\/future\/811115-politicheskaya-predvzyatost-chatgpt-snova-podcherknuta-novym-issledovaniem“ ,“gtm“:““,“prevCount“:null,“count“:0,“isAuthorized“:false}
{„id“:811115,“type“:1,“typeStr“:content“,showTitle“:false,“initialState“:{„isActive“:false},“gtm“:“}
{„id“:811115,“gtm“:null}
1,2K Eindrücke
127 Entdeckungen
Studie , Eine von Computer- und Informationswissenschaftsforschern aus dem Vereinigten Königreich und Brasilien durchgeführte Studie äußerte Bedenken hinsichtlich der Objektivität von ChatGPT.
Die Forscher behaupten, in den ChatGPT-Antworten eine erhebliche politische Tendenz festgestellt zu haben, die eher zur linken Seite des politischen Spektrums tendiert.
Eine diese Woche in Public Choice veröffentlichte Studie von Fabio Motoki, Valdemar Piño und Victor Rodriguez argumentiert, dass das Vorhandensein politischer Vorurteile in KI-generierten Inhalten bestehende Vorurteile in traditionellen Medien aufrechterhalten kann.
Mithilfe eines empirischen Ansatzes füllten die Forscher eine Reihe von Fragebögen aus, um die politische Ausrichtung von ChatGPT zu bewerten. Der Chatbot wurde gebeten, Fragen zum politischen Kompass zu beantworten, die seine Position zu verschiedenen politischen Themen widerspiegeln.
Darüber hinaus untersuchte die Studie Szenarien, in denen ChatGPT sich als durchschnittlicher Demokrat und Republikaner ausgab, was eine inhärente Tendenz des Algorithmus zu demokratisch voreingenommenen Antworten aufdeckte.
Was sind die Ergebnisse der Studie?
Die Ergebnisse der Studie zeigen, dass die Voreingenommenheit von ChatGPT über die USA hinausgeht und auch in seinen Antworten zum politischen Kontext Brasiliens und Großbritanniens sichtbar ist. Bemerkenswerterweise legt die Studie sogar nahe, dass diese Verzerrung nicht nur ein mechanisches Ergebnis, sondern ein absichtlicher Trend in der Leistung des Algorithmus ist.
Es bleibt eine Herausforderung, die genaue Quelle der politischen Voreingenommenheit von ChatGPT zu ermitteln. Die Forscher untersuchten sowohl die Trainingsdaten als auch den Algorithmus selbst und kamen zu dem Schluss, dass beide Faktoren wahrscheinlich zur Verzerrung beitragen. Sie betonten die Notwendigkeit zukünftiger Forschung, diese Komponenten zu entschlüsseln, um die Ursachen der Voreingenommenheit besser zu verstehen.
Da der Einfluss von KI-gestützten Tools wie ChatGPT immer weiter zunimmt, kämpfen Experten und Interessengruppen mit den Folgen von KI-generierten voreingenommenen Inhalten.
Diese Studie erinnert daran, dass Wachsamkeit und Kontrolle notwendig sind, um sicherzustellen, dass Technologien der künstlichen Intelligenz auf faire und ausgewogene Weise und ohne unangemessene politische Einflussnahme entwickelt und angewendet werden.
Bitte, es hilft, den Artikel zu bewerben.
Es gibt angeheftete Bots, um ohne VPN auf Chat GPT und midjourney zuzugreifen