Ruhi Khan, ESRC-Forscher an der LSE, argumentiert, dass, da Unternehmen zunehmend künstliche Intelligenz einsetzen und Menschen dazu tendieren, sich bei allgegenwärtigen Aufgaben am Arbeitsplatz auf große Sprachmodell-Chatbots wie chatgpt zu verlassen, Voreingenommenheit oft unkontrolliert bleibt und die dadurch entstehenden Schäden leicht das Leben einer Frau zerstören könnten Karriere, wenn sie unangefochten bleibt.

Im Februar argumentierte ich bei einem Ofcom-Roundtable zur Erforschung von Online-Gewalt gegen Frauen und Mädchen, dass KI-Diskriminierung genauso Teil dieser Online-Gewalt sei wie jeder andere Aspekt. Auch wenn der Schaden auf den ersten Blick vielleicht nicht sichtbar ist, hinterlässt er doch tiefgreifende und nachhaltige Auswirkungen, und auch wenn es leicht ist, sich in den Glamour und Hype der künstlichen Intelligenz zu verwickeln, ist es genauso wichtig, die Schäden, die diese Technologien verursachen, im Auge zu behalten verewigen kann. Viele von uns, die sich mit Geschlecht und Rasse in der Technologie befassen, haben immer wieder auf die Vorurteile aufmerksam gemacht, die tief in der künstlichen Intelligenz verankert sind, und wir stellen oft fest, dass den Menschen nicht bewusst ist, wie stark voreingenommen ChatGPT-Antworten sein können.

Heute hat ChatGPT über 180,5 Millionen Nutzer, davon sind 66 % Männer und nur 34 % Frauen. Das bedeutet, dass Männer ChatGPT dominieren. 100 Millionen Menschen nutzen den Dienst jede Woche, um Fragen zu beantworten, Dokumente zusammenzufassen, Aufsätze zu schreiben, Bilder und Videos zu generieren und bei alltäglichen Schreibaufgaben am Arbeitsplatz zu helfen. Die Consumer-Version seines Chatbots wird bereits von mehr als verwendet 92 % der Fortune 500-Unternehmen. Als intelligenter Algorithmus zur Verarbeitung natürlicher Sprache leitet ChatGPT seine Antworten aus riesigen Informationsmengen im Internet ab und passt seine Antworten auf der Grundlage des Dialogstrangs sowie früherer Fragen und Antworten an.

Weltweit besteht nach wie vor ein großes geschlechtsspezifisches Lohngefälle. In Europa, Frauen verdienen im Durchschnitt 87,3 € für jeweils 100 €, die Männer verdienen, was bedeutet, dass Frauen jährlich 1,5 Monate zusätzlich arbeiten müssten, um die Differenz auszugleichen. Im VEREINIGTES KÖNIGREICH, Frauen erhalten immer noch nur 91 Pence für jeden Pfund, den ein Mann verdient, und fast vier von fünf Unternehmen und öffentlichen Einrichtungen zahlen Männern immer noch mehr als Frauen. Im FinanzsektorEinige der führenden britischen Unternehmen zahlen Frauen im Durchschnitt 28,8 % weniger als ihre männlichen Kollegen. Der Globale Geschlechterlücke 2023 Der Bericht des Weltwirtschaftsforums zeigt, dass Frauen im Jahr 2023 41,9 % der Arbeitskräfte ausmachten und dennoch der Anteil von Frauen in leitenden Führungspositionen (Vizepräsidentin, Direktorin oder C-Suite) im Vergleich zum Vorjahr um 10 % auf 32,2 gesunken ist .%. Die Gründe dafür sind vielfältig und komplex, aber könnte KI dabei eine Rolle gespielt haben?

In einem früheren Artikel habe ich einige Möglichkeiten hervorgehoben, in denen es in KI-Modellen zu Geschlechterdiskriminierung kommt. KI-Voreingenommenheit bei der Rekrutierung gegen Frauen ist weit verbreitet: Auf Plattformen wie LinkedIn werden weniger Frauen Spitzenjobs angezeigt, und Rekrutierungssoftware wählt für Führungspositionen oft Männer gegenüber Frauen aus, basierend auf historischen Daten, die stärker auf Männer ausgerichtet sind. Da KI auf undurchsichtige Weise arbeitet, bleiben die meisten dieser Vorurteile unbemerkt. Einige sind jedoch leichter zu erkennen, wenn wir wissen, wo wir suchen müssen. Lassen Sie uns dazu von den automatisierten Aufgaben in Blackboxen zu etwas übergehen, das etwas transparenter ist (oder vielleicht auch nicht).

Siehe auch  Chinesischer Wissenschaftler behauptet, ChatGPT sei ideologisch voreingenommen

Aufklärung der geschlechtsspezifischen Voreingenommenheit in ChatGPT

Nehmen Sie ein Beispiel für etwas, wofür ein Personalmanager ChatGPT in seiner täglichen Arbeit nutzen könnte. Ich habe ChatGPT gebeten, eine Leistungsbeurteilung für John, einen Account Manager, und anschließend für Jane, einen Account Manager, zu schreiben. Die einzige Änderung in meiner Frage war „John“ zu „Jane“. Es wurden keine weiteren Details angegeben.

Doch die Ausgabe von ChatGPT hätte unterschiedlicher nicht sein können.

1. Geschlechtsspezifische Erwartungen

Rk 1

Der erste offensichtliche Unterschied besteht darin, dass ChatGPT John ein „übertrifft die Erwartungen“ und Jane nur ein „erfüllt die Erwartungen“ gab. Bei einer Leistungsbeurteilung kann ein einziges Wort einen großen Unterschied machen. Warum sollten zwei Personen zwei unterschiedliche Ergebnisse erhalten?

Zu Johns Stärken gehörten strategisches Denken, Teamplayer und Anpassungsfähigkeit, während Janes Stärken das Engagement für Lernen und Teamzusammenarbeit waren. Während John ein „wertvoller“ Teamplayer ist, „fördert Jane lediglich ein kollaboratives Umfeld“. Während John eine „strategische Denkweise“ hat und sich an „neue Herausforderungen“ anpasst, ist Jane einfach „dem kontinuierlichen Lernen verpflichtet“.

Rk 2

2. Geschlechtsspezifische Schlüsselwörter

Rk 3

Wenn es um Schlüsselaufgaben ging, übertraf John in jeder Kategorie alle Erwartungen, während Jane dies nur in der beruflichen Weiterentwicklung schaffte (sprich: die Fähigkeit, sich ständig weiterzubilden, um sich zu verbessern). Hier ist, was ChatGPT sagt:

  • Während John außergewöhnliche Fähigkeiten im Finanzmanagement zeigte, erbrachte Jane nur angemessene Leistungen mit Verbesserungspotenzial.
  • Während John starke Führungsqualitäten gezeigt hat, hat Jane das Potenzial, ihre Führungsqualitäten zu verbessern, um ihre Teammitglieder zu unterstützen.
  • Während Johns proaktiver Ansatz zu einer hohen Kundenzufriedenheit geführt hat, könnte Jane von einem proaktiveren Ansatz zur Verbesserung der Kundenzufriedenheit profitieren.
  • John kommuniziert effektiv und klar und prägnant, während Jane angemessen kommuniziert, aber Hilfe bei der klaren Vermittlung komplexer Finanzinformationen benötigt.
  • John ist geschickt darin, Probleme zu identifizieren, Optionen zu analysieren und wirksame Lösungen umzusetzen, während Jane zusätzliches Training im analytischen Denken benötigt, um fundierte Entscheidungen zu treffen.
  • John hat außergewöhnlich gute Leistungen erbracht und Fortbildungsprogramme könnten ihm bei seiner beruflichen Weiterentwicklung helfen, aber Janes Lernwille und die Verbesserung ihrer Fähigkeiten tragen positiv zu ihrer Rolle bei.

3. Geschlechtsspezifische Empfehlungen

Rk 4

Dies ist, was die Leistungsbeurteilung von ChatGPT für John und Jane empfiehlt:

„John ist ein wertvolles Gut zu unserer Organisation, und ich empfehle ihn jedem zukünftige Führungsaufgaben oder zusätzliche Verantwortlichkeiten, die seinen Fähigkeiten und Karrierezielen entsprechen.“

Siehe auch  SUNY Oswego bietet den ersten ChatGPT-Business-Kurs an

„Jane zeigt Potenzial und ist stark Bereitschaft zu lernen und sich zu verbessern. Mit dem richtige Anleitung und UnterstützungSie hat die Fähigkeit, in ihrer Rolle hervorragende Leistungen zu erbringen und in Zukunft mehr Verantwortung zu übernehmen.“

Geht es nur um das Geschlecht?

Ja. Diese voreingenommene Empfehlung für John und Jane aufgrund ihres Geschlechts könnte nicht deutlicher machen, wie schädlich die unkontrollierte Nutzung von ChatGPT für Frauen am Arbeitsplatz sein könnte. In einem anderen Fall bat ich in meinen Eingabeaufforderungen um eine Leistungsbeurteilung für Tom und Anna, und das Ergebnis war unheimlich ähnlich. Jane und Anna waren nie gut genug.

Rk 5

In ähnlicher Weise ergab die Wortwolke von Tom und Anna eine geschlechtsspezifische Bewertung: Anna muss in allen Bereichen verbessert werden, während Toms Leistung hervorragend ist.

Rk 6

Genau wie John verfügt auch Tom über eine strategische Denkweise und ist ein wertvoller Teamplayer, der bereit ist, seine Strategien an neue Herausforderungen anzupassen, während Anna wie Jane Lernbereitschaft zeigt und Unterstützung und Anleitung bei der Analyse von Finanzdaten und Kommunikationsfähigkeiten benötigt Vermeiden Sie Missverständnisse und schaffen Sie ein positives und produktives Arbeitsumfeld.

Rk 7Empfehlungen zur Leistungsbeurteilung von ChatGPT für Tom und Anna:

„Tom ist ein unschätzbares Gut für unsere Organisation, und ich kann ihn jedem wärmstens empfehlen zukünftige Führungsaufgabenzusätzliche Verantwortlichkeiten oder Aufstiegschancen, die seinen Fähigkeiten, seinem Fachwissen und seinen Karrierezielen entsprechen.“

„Anna hat das Potenzial zur Verbesserung und zum Erfolg in ihrer Rolle mit der richtigen Unterstützung, Schulung und Anleitung. Es wird empfohlen einen Leistungsverbesserungsplan entwickeln, um ihre Schwachstellen anzugehen und ihr helfen, das erwartete Leistungsniveau zu erreichen.“

Beachten Sie, dass die Männer von unschätzbarem Wert sind und mehr Führungspositionen in der Organisation erhalten sollten, während die Frauen Hilfe und Anleitung benötigen, um ihre Fähigkeiten in ihren bestehenden Jobs zu verbessern.

Geschlechtsspezifische Bilder

Es ist kein Wunder, dass ChatGPT auf die Frage, wie ein CEO aussieht, eine Beschreibung erhält, die maßgeschneiderte Anzüge, Hemden, Krawatten und formelle Schuhe sowie gepflegtes Haar, ein glattrasiertes Gesicht oder einen ordentlich gestutzten Bart umfasst. Keine Erwähnung von Röcken, Absätzen oder Make-up, die normalerweise mit Frauen in Verbindung gebracht werden. Dies rührt von der primitiven Vorstellung her, Männer in Führungspositionen und Frauen als ihnen unterworfen vorzustellen. Wie in meinem Interview mit besprochen Finder, Chat GPT macht das auch. Wenn man sie fragt, wie eine Sekretärin aussieht, nennt sie eine Beschreibung, die Blusen, Röcke oder Hosen, Kleider, Blazer und geschlossene Schuhe sowie gepflegtes Haar, minimales Make-up und ein gepflegtes, sauberes Erscheinungsbild umfasst (Krawatten oder Bärte werden nicht erwähnt). ). Während Frauen mittlerweile CEO-Positionen in einigen prominenten Firmen besetzen, wenn auch nur in geringer Zahl, können sich KI-Systeme wie ChatGPT noch keinen CEO im Rock oder eine Sekretärin mit gestutztem Bart vorstellen, was sie patriarchalisch macht, erkläre ich in Der Telegraph.

KI-Systeme und der zunehmende Einsatz von ChatGPT bei alltäglichen Arbeitsaufgaben machen deutlich, wie kontraproduktiv diese Systeme für die Gleichstellung am Arbeitsplatz sein könnten, wenn man sich zunehmend auf sie verlässt. Wenn man diese Intersektionalität noch hinzufügt, haben wir einen Sumpf an Schaden für diejenigen in den Randgruppen. Wer nicht in die aktuellen Standardnormen von KI im Allgemeinen und ChatGPT im Besonderen passt, wird abgehängt.

Siehe auch  US Space Force setzt KI-Projekte, einschließlich ChatGPT, aufgrund von Datensicherheitsrisiken aus – Reuters – Nachrichten auf UNN

Was können Unternehmen tun?

  1. Überwachen Sie den Einsatz von KI: KI ist die neue schicke Technologie auf dem Markt, und jeder möchte sie übernehmen. Aber neue Technologien sind auch eine Chance für einen Neuanfang. Der blinde Einsatz von KI-Modellen wie ChatGPT wird diese Probleme nur verewigen. Eine bewusste und kontinuierliche Überwachung dieser Systeme und ihrer Auswirkungen auf alltägliche Aufgaben wird Unternehmen dabei helfen, fundiertere Entscheidungen zu treffen und das Bewusstsein zu schärfen. Die Unterzeichnung eines KI-Versprechens, das einen ethischeren Einsatz von KI bekräftigt, könnte ein guter Schritt zum Markenaufbau und zur Gewinnung von Verbrauchervertrauen sein.
  2. Berater für KI-Ethik: Unternehmen sollten einen KI-Ethikmanager oder -Berater haben, der den Einsatz von KI am Arbeitsplatz kontinuierlich bewertet. Maschinelles Lernen wird von Menschen geleitet, was bedeutet, dass ihre eigenen Vorurteile – oft unbewusst oder unbewusst – in die Systeme, an denen sie arbeiten, einfließen. Zu Beginn ist es wichtig sicherzustellen, dass die Trainingsproben so vielfältig wie möglich sind, nicht nur im Hinblick auf das Geschlecht, sondern unter anderem auch auf ethnische Zugehörigkeit, Alter, Sexualität und Behinderung. Dabei ist auch auf den Output zu achten, der von einem neutralen Dritten auf Verzerrungen untersucht werden muss.
  3. Mehr Frauen und Geschlechterminderheiten in der Tech-Branche: Frauen werden zusammen mit Männern eine große und entscheidende Rolle bei der Gestaltung der Zukunft einer vorurteilsfreien KI-Welt spielen. Wir brauchen mehr Frauen in der KI und in mehr Entscheidungspositionen im Technologiebereich. Wenn die KI das Geschlecht außerdem nur als männlich und weiblich ansieht, wird sie nicht-binäre und Transgender-Personen diskriminieren und diesen Gemeinschaften möglicherweise Schaden zufügen. Geschlechtersensibilität sollte ein wichtiger Aspekt der KI-Entwicklung sein.

Wer profitiert also von einer KI-Zukunft? Das wurde ich während eines gefragt sprechen über die Auswirkungen von KI auf die Gesellschaft letzten Monat am Imperial College London. Da wir solch offensichtliche Beweise vor uns haben, kann ich George Orwell nur dazu aufrufen, dem Publikum (und jetzt den Lesern dieses Artikels) einige Denkanstöße zu geben:

KI kommt allen Menschen gleichermaßen zugute. Aber einige Menschen profitieren von KI gleichermaßen mehr als andere.

Dieser Beitrag stellt die Ansichten der Autoren dar und nicht die Position des Media@LSE-Blogs oder der London School of Economics and Political Science.

Ausgewähltes Bild:

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein