Die Ergebnisse deuten auf das Potenzial für geografische Verzerrungen hin, die in aktuellen Modellen der generativen künstlichen Intelligenz (KI) bestehen.

Veröffentlicht: 17. Dezember 2023, 00:41 Uhr IST

Von IANS

chatgpt, Telematik und Informatik, künstliche Intelligenz, generative KI“ data-style=““/>

New York: Forscher haben Einschränkungen bei der Fähigkeit von ChatGPT entdeckt, standortspezifische Informationen zu Fragen der Umweltgerechtigkeit bereitzustellen. Ihre in der Fachzeitschrift Telematics and Informatics veröffentlichten Ergebnisse deuten auf das Potenzial für geografische Verzerrungen hin, die in aktuellen Modellen der generativen künstlichen Intelligenz (KI) bestehen.

„Als Geograph und Geodatenwissenschaftler ist generative KI ein Werkzeug mit großem Potenzial“, sagte Assistenzprofessor Junghwan Kim vom College of Natural Resources and Environment an der Virginia Tech.

„Gleichzeitig müssen wir die Grenzen der Technologie untersuchen, um sicherzustellen, dass zukünftige Entwickler die Möglichkeiten von Voreingenommenheiten erkennen. Das war die treibende Motivation dieser Forschung“, fügte Kim hinzu.

Anhand einer Liste der 3.108 Landkreise in den angrenzenden Vereinigten Staaten bat die Forschungsgruppe die ChatGPT-Schnittstelle, eine Frage zu den Umweltgerechtigkeitsproblemen in jedem Landkreis zu beantworten.

Die Forscher wählten Umweltgerechtigkeit als Thema, um das Spektrum der Fragen zu erweitern, die typischerweise zum Testen der Leistung generativer KI-Tools verwendet werden.

Durch das Stellen von Fragen nach Landkreisen konnten die Forscher die ChatGPT-Antworten anhand soziodemografischer Faktoren wie Bevölkerungsdichte und mittlerem Haushaltseinkommen messen.

ChatGPT konnte nur für 515 der 3018 eingegebenen Landkreise oder 17 Prozent standortspezifische Informationen zu Fragen der Umweltgerechtigkeit bereitstellen.

Siehe auch  ChatGPT hat seinen Weg nach Ball State gefunden

Da sich generative KI als neues Gateway-Tool zur Informationsbeschaffung herausstellt, ist das Testen potenzieller Verzerrungen bei Modellierungsergebnissen ein wichtiger Bestandteil der Verbesserung von Programmen wie ChatGPT.

„Obwohl weitere Studien erforderlich sind, zeigen unsere Ergebnisse, dass im ChatGPT-Modell derzeit geografische Verzerrungen bestehen“, sagte Kim.

„Dies ist ein Ausgangspunkt für die Untersuchung, wie Programmierer und KI-Entwickler in der Lage sein könnten, die Informationsunterschiede zwischen Groß- und Kleinstädten, zwischen städtischen und ländlichen Umgebungen vorherzusehen und abzumildern“, stellten die Autoren fest.

–>

5/5 - (449 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein