Laut Celeste Kidd und Abeba Birhane können generative KI-Modelle wie chatgpt, DALL-E und midjourney menschliche Überzeugungen verzerren, indem sie falsche Informationen und stereotype Vorurteile übermitteln. Das Design der aktuellen generativen KI, die sich auf die Suche und Bereitstellung von Informationen konzentriert, könnte es schwierig machen, die Wahrnehmung von Menschen zu ändern, wenn sie falschen Informationen ausgesetzt sind.

Forscher warnen davor, dass generative KI-Modelle, darunter ChatGPT, DALL-E und Midjourney, menschliche Überzeugungen verzerren könnten, indem sie falsche, voreingenommene Informationen verbreiten.

Einfluss der KI auf die menschliche Wahrnehmung

Laut den Forschern Celeste Kidd und Abeba Birhane können generative KI-Modelle wie ChatGPT, DALL-E und Midjourney menschliche Überzeugungen durch die Übermittlung falscher Informationen und stereotyper Vorurteile verzerren. Aus ihrer Sicht untersuchen sie, wie Studien zur menschlichen Psychologie Aufschluss darüber geben könnten, warum generative KI eine solche Macht besitzt, menschliche Überzeugungen zu verzerren.

Überschätzung der KI-Fähigkeiten

Sie argumentieren, dass die Wahrnehmung der Fähigkeiten generativer KI-Modelle in der Gesellschaft übermäßig übertrieben sei, was zu der weit verbreiteten Annahme geführt habe, dass diese Modelle die menschlichen Fähigkeiten übertreffen. Einzelpersonen neigen von Natur aus dazu, die von sachkundigen, selbstbewussten Einheiten wie der generativen KI verbreiteten Informationen schneller und sicherer zu übernehmen.

Die Rolle der KI bei der Verbreitung falscher und voreingenommener Informationen

Diese generativen KI-Modelle haben das Potenzial, falsche und voreingenommene Informationen zu fabrizieren, die weitreichend und wiederholt verbreitet werden können, Faktoren, die letztendlich das Ausmaß bestimmen, in dem solche Informationen in den Überzeugungen der Menschen verankert werden können. Einzelpersonen sind am anfälligsten für Einflussnahmen, wenn sie nach Informationen suchen, und neigen dazu, sich fest an die Informationen zu halten, sobald sie sie erhalten haben.

Siehe auch  Hier sind Google Bard- und ChatGPT-Preisvorhersagen für Shiba Inu im Jahr 2024

Auswirkungen auf die Informationssuche und -bereitstellung

Das aktuelle Design der generativen KI dient weitgehend der Informationssuche und -bereitstellung. Daher kann es eine erhebliche Herausforderung darstellen, die Meinung von Personen zu ändern, die über diese KI-Systeme falschen oder voreingenommenen Informationen ausgesetzt sind, wie von Kidd und Birhane vorgeschlagen.

Bedarf an interdisziplinären Studien

Abschließend betonen die Forscher die entscheidende Möglichkeit, interdisziplinäre Studien zur Bewertung dieser Modelle durchzuführen. Sie schlagen vor, die Auswirkungen dieser Modelle auf menschliche Überzeugungen und Vorurteile sowohl vor als auch nach der Exposition gegenüber generativer KI zu messen. Dies ist eine zeitgemäße Gelegenheit, insbesondere angesichts der Tatsache, dass diese Systeme zunehmend übernommen und in verschiedene Alltagstechnologien integriert werden.

Referenz: „Wie KI menschliche Überzeugungen verzerren kann: Modelle können Benutzern Vorurteile und falsche Informationen vermitteln“ von Celeste Kidd und Abeba Birhane, 22. Juni 2023, Wissenschaft. DOI: 10.1126/science.adi0248

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein