Während einige Arbeitnehmer KI meiden mögen, ist die Versuchung, sie zu nutzen, für andere sehr real. Das Feld kann „Hundefresser“ sein, sagt Bob, was arbeitssparende Werkzeuge attraktiv macht. Um die bestbezahlten Jobs zu finden, verwenden Crowdworker häufig Skripte, die lukrative Aufgaben kennzeichnen, Bewertungen von Aufgabenanforderern durchsuchen oder sich besser bezahlten Plattformen anschließen, die Arbeiter und Antragsteller überprüfen.

CloudResearch begann letztes Jahr mit der Entwicklung eines hauseigenen chatgpt-Detektors, nachdem die Gründer erkannt hatten, dass die Technologie ihr Geschäft gefährden könnte. Laut Mitbegründer und CTO Jonathan Robinson beinhaltet das Tool das Erfassen von Tastendrücken, das Stellen von Fragen, auf die ChatGPT anders reagiert als Menschen, und das Einbinden von Menschen, um Freiform-Textantworten zu überprüfen.

Andere argumentieren, dass Forscher es sich zur Aufgabe machen sollten, Vertrauen aufzubauen. Justin Sulik, ein Kognitionswissenschaftsforscher an der Universität München, der CloudResearch zur Rekrutierung von Teilnehmern nutzt, sagt, dass grundlegender Anstand – faire Bezahlung und ehrliche Kommunikation – einen großen Beitrag leistet. Wenn Arbeitnehmer darauf vertrauen, dass sie weiterhin bezahlt werden, könnten die Antragsteller am Ende einer Umfrage einfach fragen, ob der Teilnehmer ChatGPT verwendet hat. „Ich denke, dass Online-Arbeitern zu Unrecht vorgeworfen wird, Dinge zu tun, die Büroangestellte und Akademiker möglicherweise ständig tun, wodurch unsere eigenen Arbeitsabläufe nur effizienter werden“, sagt Sulik.

Ali Alkhatib, ein Social-Computing-Forscher, schlägt vor, dass es produktiver sein könnte, darüber nachzudenken, wie unterbezahlte Crowdworker Anreize für die Nutzung von Tools wie ChatGPT schaffen könnten. „Forscher müssen ein Umfeld schaffen, das es den Mitarbeitern ermöglicht, sich Zeit zu nehmen und tatsächlich nachdenklich zu sein“, sagt er. Alkhatib zitiert Arbeiten von Stanford-Forschern, die eine entwickelt haben Codezeile Damit wird erfasst, wie lange eine Mikroaufgabe dauert, sodass Antragsteller berechnen können, wie sie einen Mindestlohn zahlen müssen.

Siehe auch  Als wir es auf den Markt brachten, fanden wir ChatGPT langweilig und nicht sehr gut, sagt der Mitbegründer von OpenAI

Auch eine kreative Studiengestaltung kann hilfreich sein. Als Sulik und seine Kollegen das messen wollten KontingenzillusionBasierend auf dem Glauben an den kausalen Zusammenhang zwischen voneinander unabhängigen Ereignissen forderten sie die Teilnehmer auf, eine Cartoon-Maus über ein Gitter zu bewegen und dann zu raten, welche Regeln ihnen den Sieg einbrachten. Diejenigen, die zur Illusion neigten, wählten eher hypothetische Regeln. Ein Teil der Designabsicht bestand darin, die Dinge interessant zu halten, sagt Sulik, damit die Bobs dieser Welt nicht aus dem Konzept geraten. „Und niemand wird ein KI-Modell trainieren, nur um Ihr spezielles kleines Spiel zu spielen.“

Ein durch ChatGPT ausgelöster Verdacht könnte die Situation für Crowdworker erschweren, die ohnehin auf Phishing-Betrügereien achten müssen, die durch Scheinaufgaben persönliche Daten sammeln und unbezahlte Zeit damit verbringen, Qualifikationstests zu absolvieren. Nachdem ein Anstieg von Daten schlechter Qualität im Jahr 2018 eine Bot-Panik bei Mechanical Turk auslöste, stieg die Nachfrage nach Überwachungstools, um sicherzustellen, dass die Arbeiter diejenigen sind, für die sie sich ausgeben.

Phelim Bradley, der CEO von Prolific, einer in Großbritannien ansässigen Crowd-Work-Plattform, die Teilnehmer und Anfragende überprüft, sagt, sein Unternehmen habe mit der Arbeit an einem Produkt begonnen, um ChatGPT-Benutzer zu identifizieren und sie entweder aufzuklären oder zu entfernen. Er muss sich jedoch an die Datenschutzgesetze der EU-Datenschutzgrundverordnung halten. Einige Erkennungstools „könnten ziemlich invasiv sein, wenn sie nicht mit Zustimmung der Teilnehmer durchgeführt werden“, sagt er.

5/5 - (48 votes)
Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein