Kenianische Arbeiter, die chatgpt von OpenAI geschult haben eine Petition eingereicht haben Die Nationalversammlung des Landes soll die Arbeitsbedingungen bei Unternehmen wie Sama untersuchen, an die Unternehmen wie google, Meta und OpenAI ihre Content-Moderation und KI-Arbeit auslagern.

„Im Namen junger Kenianer, deren Leben ruiniert wurde, weil sie die Drecksarbeit geleistet haben, den ChatGPT-Algorithmus zu trainieren, haben wir eine Petition eingereicht [the Kenyan National Assembly] „Um zu untersuchen, wie OpenAI und Sama einer solchen Ausbeutung entgehen und die technische Arbeit dringend regulieren konnten“, sagte Mercy Sumbi, Verfechterin digitaler Rechte und Prozessanwältin. sagte auf Twitter.

Die Petition beschreibt die besorgniserregenden Bedingungen, unter denen kenianischen Arbeitnehmern von Sama (bis 2021 als Samasource bekannt) befristete Verträge angeboten wurden, die die Art ihrer Beschäftigung nicht ausreichend beschrieben. Nach der Einstellung wurde von den Mitarbeitern erwartet, dass sie Materialien ansehen und kategorisieren, die sexuelle und drastische Gewalt darstellen – darunter Sodomie, Nekrophilie, inzestuöse sexuelle Gewalt, sexueller Kindesmissbrauch, Selbstverletzung, Selbstmord, Folter und Vergewaltigung –, damit ChatGPT lernen kann, Inhalte für die Zukunft zu erkennen Interaktion mit Benutzern. Die Arbeiter erhielten keine psychologische Unterstützung und entwickelten nach der Teilnahme an den Inhalten schwere psychische Probleme, darunter posttraumatische Belastungsstörungen, Paranoia, Depressionen und Angstzustände.

„Das Schicksal großer Technologiekonzerne ruht derzeit buchstäblich auf den gebrochenen Rücken und Köpfen der afrikanischen Jugend. » Sumbi schrieb auf Twitter.

Ein Untersuchungsbericht von Temp im Januar ergab, dass diese Arbeiter für diese Arbeit weniger als 2,00 US-Dollar pro Stunde oder ein Höchstgehalt von 170 US-Dollar pro Monat erhielten. „Es war Folter“, sagte ein anonymer Sama-Mitarbeiter. Temp über die Aufgabe, einen Text zu lesen und zu kennzeichnen, der Bestialität beschreibt. „Sie werden im Laufe der Woche eine Reihe solcher Aussagen lesen. Wenn wir am Freitag ankommen, werden Sie durch den Gedanken an dieses Bild verunsichert.

Siehe auch  So erstellen Sie Anfragen für ChatGPT korrekt

Laut einem Whistleblower war sich die Geschäftsleitung großer Technologieunternehmen wie Microsoft angeblich der traumatischen Natur der Arbeit bewusst, die sie nach Kenia ausgelagert hatten.

„Auf dem Weg zu Systemen auf AGI-Ebene wird es beängstigende Momente sowie erhebliche Störungen geben, aber die Vorteile können so erstaunlich sein, dass es sich lohnt, die großen Herausforderungen zu meistern, um dorthin zu gelangen“, sagte er, sagte Sam Altman, Leiter von OpenAI . schrieb auf Twitter im Dezember 2022.

Die Art der Arbeit – und ihre Auswirkungen auf kenianische Arbeitnehmer – veranlassten Sama, seinen Vertrag mit OpenAI im Februar 2022, acht Monate früher als geplant, abrupt zu kündigen.

Die Petition ist nicht nur ein Aufruf zum Handeln an die Nationalversammlung, um die Ausbeutung von Arbeitern durch Sama und US-amerikanische Technologieunternehmen zu untersuchen, sondern auch um die Verabschiedung von Gesetzen zur Regulierung der Technologiearbeit im Land zum Schutz der Arbeiter.

„Wir müssen ehrliche Gespräche über die Technologiearbeit führen, die in Kenia im Namen von Big Tech geleistet wird“, sagte Sumbi. „Wir wollen das Land der Wahl für Big Tech sein, aber zu welchem ​​Preis? Wenn sie nicht alle Vorkehrungen zum Schutz der Arbeitnehmer treffen, handelt es sich um Ausbeutung und nicht um Investition.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein