[ad_1]

Ein kürzlich Studie aus Virginia Tech, eine Universität in den USA, hat Vorurteile gegenüber Umweltproblemen im Chatbot für künstliche Intelligenz von OpenAI, chatgpt, hervorgehoben. Die Studie zeigt, dass die Forscher, als sie ChatGPT zu Umweltproblemen in verschiedenen Ländern befragten, je nach Standort des Gebiets voreingenommene Antworten erhielten. Forscher fanden auch heraus, dass ChatGPT einige Einschränkungen aufweist und diese der Grund dafür sind, dass es für viele Länder keine standortspezifischen Informationen liefern kann.

Dem Bericht zufolge sind die von ChatGPT bereitgestellten Informationen auf größere und bevölkerungsreiche Bundesstaaten in den USA ausgerichtet. Weniger als 1 % der Einwohner in den Landkreisen von Bundesstaaten wie Delaware oder Kalifornien verfügten über keine Informationen über Umweltthemen. Bedenken Sie, dass dies die städtischen Gebiete in den USA sind. Andererseits hatten 90 % der Bevölkerung in ländlichen Bundesstaaten wie Idaho und New Hampshire keinen lokalen Zugang zu Daten über Umweltthemen und Gerechtigkeit.

Image

Kim, Dozentin am Department of Geography der Virginia Tech, sagt, dass dringend weitere Forschung erforderlich sei, um diese Vorurteile von ChatGPT gegenüber der Umwelt auszuräumen. Der Bericht enthält auch eine Karte der USA, die je nach Standort Bevölkerungsgruppen zeigt, die keinen Zugang zu Informationen zu Fragen der Umweltgerechtigkeit haben.

Diese Studie ist eine großartige Möglichkeit, mehr über die Vorurteile von ChatGPT zu politischen und ökologischen Themen in der Welt zu erfahren. Einige Forscher aus Großbritannien und Brasilien haben bereits eine Studie veröffentlicht, die die Fehler und Verzerrungen in den Antworten von ChatGPT aufzeigt. Diese reichen aus, um Alarm zu schlagen, da sie ChatGPT-Benutzer und Personen, die diese Antworten lesen, in die Irre führen können.

Siehe auch  Ein Gesetzentwurf zur Regulierung der KI, verfasst mit ChatGPT (das ist kein Scherz)

Zusammenfassend ist der Bericht ein großartiger Indikator, der zeigt, dass ChatGPT zwar ein wunderbarer KI-Chatbot ist, aber immer noch keine unvoreingenommenen Informationen zu bestimmten Themen in Bezug auf Politik und Umwelt liefern kann. Da die Technologie rasant voranschreitet und sich die öffentliche Meinung entsprechend ändert, müssen KI-Modelle perfekt und unvoreingenommen in ihren Reaktionen zum Wohle der Menschen reagieren. KI-Entwickler sollten daran arbeiten, die KI-Modelle so perfekt wie möglich zu machen.

Lesen Sie weiter: ChatGPT ist in Flammen, da es nach der Wiederaktivierung kostenpflichtiger Abonnements den höchsten Umsatz aller Zeiten generiert

[ad_2]

5/5 - (112 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein