96C6520 1697724601944 000

chatgpt ist nicht nur ein Algorithmus, der auf fast alles eine Antwort hat. Um das berühmte Werkzeug der künstlichen Intelligenz (KI) zu bauen, das Ende 2022 auf den Markt kommt, wurden auf der ganzen Welt Tausende von kleinen Händen angeheuert, um ihm beizubringen, gut zu reagieren, insbesondere indem man ihm beibringt, einige davon zu erkennen und beiseite zu legen die Inhalte, die er im Internet findet.

Bill Mulinya erledigte diese Arbeit fünf Monate lang, zwischen Ende 2021 und Anfang 2022. Der junge 30-jährige Kenianer leitete ein Team von fünfzehn Personen, die den zukünftigen ChatGPT darin trainierten, hasserfüllte, gewalttätige oder belästigende Kommentare im Namen von zu erkennen Sama, ein wichtiger Subunternehmer von Big Tech, den großen Unternehmen der Branche. Im Rahmen dieses Vertrags mit dem Entwickler des Chatbots, OpenAI, bestand ihre Aufgabe darin, den ganzen Tag lang Texte zu lesen, die in allen Ecken des Webs zu finden waren, und sie mit präzisen Qualifikationsmerkmalen – oder „Labels“ – zu versehen, um sie zu melden zum Algorithmus. Ein zweites Team wurde Texten sexueller Natur zugeteilt.

Lesen Sie auch: Artikel für unsere Abonnenten reserviert Die „Schwarze Steuer“, zwischen Sprungbrett und Belastung für junge afrikanische Arbeitnehmer

« Wenn Sie anfangen, diese Inhalte zu lesen, ist es zunächst in Ordnung, sagt Herr Mulinya, Mütze und Hemd, während er auf der Terrasse eines Cafés in Nairobi einen Smoothie trinkt. Aber wenn man das ständig liest, fängt es an, in den Kopf einzudringen. Einer meiner Kollegen war ein sehr fröhlicher, extrovertierter Mensch. Als das Projekt im März 2022 endete, war er völlig verändert, er hatte vor allem Angst. » Nekrophilie, Selbstmord, Kindesmissbrauch …Stunde für Stunde, Text für Text beschrieben mehrere ehemalige Mitarbeiter, dass sie Angst-, Schlaf- oder Sexualprobleme entwickelten. „ Irgendwann bat mich fast das gesamte Team um Urlaub, er addiert. Als Chef wissen Sie, dass es ein Problem gibt. »

Siehe auch  ChatGPT ist „wie ein kluger, übermütiger Praktikant“

„Schäden für die psychische Gesundheit“

Der Vertrag sollte ein Jahr dauern. Aber Sama beantragte seine Kündigung.“ sofort “ Nach “ dass die Teams die Aufmerksamkeit des Managements auf sich gezogen haben „, oder nach ein paar Monaten, erklärt der Subunternehmer in einer E-Mail – der angekündigt hat, diese Art von Inhalten dauerhaft zu stoppen. OpenAI behauptet seinerseits, auch per E-Mail, zu erkennen: die Schwierigkeit dieser Arbeit » für Subunternehmer: „ Ihre Bemühungen, die Benutzersicherheit von Systemen der künstlichen Intelligenz zu gewährleisten, sind von immensem Wert. »

Der Wert dieser Arbeit steht tatsächlich im Mittelpunkt mehrerer Fälle, die das Technologie-Ökosystem von Nairobi in den letzten Monaten erschüttert haben. Die kenianische Hauptstadt ist mit ihren preiswerten, gut ausgebildeten und englischsprachigen Arbeitskräften zu einer Plattform für die Vergabe von Unteraufträgen für das Silicon Valley geworden. Das Land stellt sich sogar ein wenig pompös als „Silicon Savannah“ dar: Die Regierung will das Erlernen der Grundlagen des Computerprogrammierens bereits in der Grundschule einführen und preist seine Jugend als Nährboden für Webgiganten im afrikanischen Bangalore-Stil an.

Sie haben noch 55,82 % dieses Artikels zum Lesen übrig. Der Rest ist Abonnenten vorbehalten.

5/5 - (149 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein