Die Forscher berichten, dass mit konventionellen Datenerhebungsmethoden trainierte Modelle Regelverstöße strenger beurteilen als Menschen.

Bild erstellt mit Mitten auf der Reise

Um die Fairness zu verbessern und Verstöße gegen formelle und informelle Regeln zu reduzieren, werden Modelle des maschinellen Lernens manchmal so konzipiert, dass sie die menschliche Entscheidungsfindung nachahmen. Zum Beispiel die Entscheidung, ob Social-Media-Beiträge gegen die Richtlinie zu eingeschränkten Inhalten verstoßen.

Doch Forscher am MIT und anderswo haben herausgefunden, dass diese Modelle oft nicht echte menschliche Urteile über Regelverstöße wiedergeben. Wenn Modelle nicht mit echten verbotenen Daten trainiert werden, werden sie härtere Urteile fällen als Menschen.

In den meisten Fällen handelt es sich bei den Daten um „korrekte“ Daten, die von Personen gemeldet wurden, die gefragt wurden, ob die Daten gegen Regeln verstoßen.

Beim Training wird das neuronale Netzwerk Millionen von Beispielen dieser „normativen Daten“ ausgesetzt, damit es aus der Probe lernen kann.

Aber die Daten, die zum Trainieren von Modellen für maschinelles Lernen verwendet werden, werden normalerweise deskriptiv gekennzeichnet – das heißt, die Menschen werden gebeten, tatsächliche Merkmale zu identifizieren, wie zum Beispiel das Vorhandensein von frittiertem Essen auf einem Foto. Wenn „beschreibende Daten“ verwendet werden, um Modelle zu trainieren, die Regelverstöße bewerten, beispielsweise ob eine Mahlzeit gegen eine Schulrichtlinie verstößt, die frittiertes Essen verbietet, neigen die Modelle dazu, die Vorhersagen von Regelverstößen zu überschätzen.

Ich denke, die meisten KI-Forscher gehen davon aus, dass menschliche Urteile über Daten und Etiketten voreingenommen sind, aber dieses Ergebnis deutet auf etwas Schlimmeres hin.

Diese Modelle reproduzieren nicht einmal bereits voreingenommene menschliche Urteile, da die Daten, auf denen sie trainiert werden, einen Fehler aufweisen: Menschen würden Merkmale von Bildern und Texten unterschiedlich kennzeichnen, wenn sie wüssten, dass diese Merkmale zur Beurteilung herangezogen würden.

Dies ist für maschinelle Lernsysteme in menschlichen Prozessen von großer Bedeutung.

Marzieh Gassemi, außerordentliche Professorin und Leiterin des Healthy ML-Teams

Gassemi ist der Hauptautor Artikel mit einer detaillierten Beschreibung dieser Ergebnisse, die in der Zeitschrift Science Advances veröffentlicht wurde.

Diskrepanz zwischen Etiketten und Realität

Diese Studie entstand aus einem anderen Projekt, das untersuchte, wie ein Modell für maschinelles Lernen seine Vorhersagen rechtfertigen kann. Bei der Datenerfassung für diese Studie stellten die Forscher fest, dass Menschen manchmal unterschiedliche Antworten geben, wenn sie gebeten werden, beschreibende oder normative Bezeichnungen für dieselben Daten anzugeben.

{ „osnovaUnitId“: null, „url“: „https://booster.osnova.io/a/relevant?site=vc&v=2“, „place“: „between_entry_blocks“, „site“: „vc“, „ Einstellungen“: {„Modi“:{„externalLink“:{„buttonLabels“:[„\u0423\u0437\u043d\u0430\u0442\u044c“,“\u0427\u0438\u0442\u0430\u0442\u044c“,“\u041d\u0430\u0447\u0430\u0442\u044c“,“\u0417\u0430\u043a\u0430\u0437\u0430\u0442\u044c“,“\u041a\u0443\u043f\u0438\u0442\u044c“,“\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c“,“\u0421\u043a\u0430\u0447\u0430\u0442\u044c“,“\u041f\u0435\u0440\u0435\u0439\u0442\u0438″]}},“deviceList“:{„desktop“:\u0414\u0435\u0441\u043a\u0442\u043e\u043f,“smartphone“:\u0421\u043c\u0430\u0440\u0442\u0444\u043e\u043d \u044b“,“tablet“:“\u041f\u043b\u0430\u043d\u0448\u0435\u0442\u044b“}} }

Um beschreibende Etiketten zu sammeln, bitten die Forscher die Labeler, sachliche Merkmale zu identifizieren – enthält der Text Obszönitäten? Um normative Labels zu sammeln, geben Forscher den Labelern eine Regel und fragen, ob die Daten gegen diese Regel verstoßen – verstößt dieser Text gegen die eigentliche Sprachrichtlinie der Plattform?

In jedem Fall wurden die Deskriptoren gebeten, anzugeben, ob das Bild oder der Text drei sachliche Merkmale enthielt, beispielsweise ob der Hund aggressiv wirkte. Ihre Antworten wurden dann zur Beurteilung herangezogen. (Wenn der Benutzer sagte, dass das Foto einen aggressiven Hund zeigte, dann lag ein Verstoß gegen die Regeln vor.) Die Entwickler der Etiketten kannten die Regeln in Bezug auf Tiere nicht. Auf der anderen Seite erhielten die Regulierungsbehörden eine Richtlinie zum Verbot aggressiver Hunde und wurden dann gefragt, ob jedes Bild dagegen verstoße und warum.

Die Forscher fanden heraus, dass Menschen in einer beschreibenden Umgebung deutlich häufiger ein Objekt als Verstoß kennzeichnen. Die Diskrepanz, die sie anhand der durchschnittlichen absoluten Differenz der Etiketten berechneten, reichte von 8 Prozent für den Bilddatensatz, der zur Beurteilung von Verstößen gegen die Kleiderordnung verwendet wurde, bis zu 20 Prozent für Bilder von Hunden.

„Obwohl wir nicht explizit getestet haben, warum dies geschieht, besteht eine Hypothese darin, dass die Art und Weise, wie Menschen über Regelverstöße denken, sich möglicherweise von der Art und Weise unterscheidet, wie sie über deskriptive Daten denken. Regulierungsentscheidungen fallen in der Regel weicher aus“, sagt Balagopalan.

Allerdings werden die Daten normalerweise mit beschreibenden Bezeichnungen erfasst, um das Modell für eine bestimmte maschinelle Lernaufgabe zu trainieren. Diese Daten werden später häufig verwendet, um verschiedene Modelle zu trainieren, die normative Urteile wie Regelverstöße fällen.

Lernprobleme

Sie fanden heraus, dass, wenn deskriptive Daten zum Trainieren eines Modells verwendet werden, dieses schlechter abschneidet als ein Modell, das darauf trainiert wurde, mithilfe normativer Daten dieselben Urteile zu fällen. Insbesondere ist es wahrscheinlicher, dass ein deskriptives Modell Eingaben falsch klassifiziert und so Regelverstöße fälschlicherweise vorhersagt. Und die Genauigkeit des Beschreibungsmodells war sogar noch geringer, wenn es um die Klassifizierung von Objekten ging, über die sich die Menschen nicht einig waren.

Dies zeigt, dass die Daten wirklich wichtig sind. Es ist wichtig, den Trainingskontext dem Bereitstellungskontext zuzuordnen, wenn Sie Modelle trainieren, um einen Regelverstoß zu erkennen.

Balagopalan

Für Benutzer kann es sehr schwierig sein, festzustellen, wie die Daten erfasst wurden. Diese Informationen könnten in einem Anhang zu einem Forschungsartikel versteckt sein oder von einem privaten Unternehmen nicht offengelegt werden, sagt Gassemi.

Die Erhöhung der Transparenz des Datensatzes ist eine Möglichkeit, dieses Problem zu lösen. Wenn Forscher wissen, wie die Daten gesammelt wurden, wissen sie, wie die Daten verwendet werden sollten. Eine weitere mögliche Strategie besteht darin, das deskriptiv trainierte Modell anhand einer kleinen Menge normativer Daten zu verfeinern. Diese Idee, die als Transferlernen bezeichnet wird, wollen die Forscher in zukünftigen Arbeiten untersuchen.

Sie möchten außerdem eine ähnliche Studie mit Kennzeichnungsexperten wie Ärzten oder Anwälten durchführen, um festzustellen, ob dies zu derselben Inkonsistenz bei der Kennzeichnung führt.

„Der Weg, dies zu beheben, besteht darin, offen zuzugeben, dass wir, wenn wir menschliches Urteilsvermögen nachbilden wollen, nur Daten verwenden sollten, die unter diesen Bedingungen gesammelt wurden.“ Andernfalls werden wir mit extrem strengen Moderationssystemen enden, viel strenger als das, was Menschen tun würden. Die Leute werden die Nuancen erkennen oder eine andere Unterscheidung treffen, diese Modelle jedoch nicht“, sagt Gassemi.

Basierend auf MIT-Forschung

PS. Bitte, es hilft, den Artikel zu bewerben, was bedeutet, dass es Motivation gibt, weiter zu schreiben

Dort poste ich VC-Artikel und was nicht in VC ist. Gedanken, Ideen, Erfahrungen.

Im angepinnten Kanal gibt es immer Kolersky-Telegram-Bots, auf die zugegriffen werden kann ChatGPT, GPT-4 ohne VPNsowie Bildgeneratoren Mitten auf der ReiseDall-e, Stable Diffusion (Projekt KolerskyAI).

4.9/5 - (195 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein