Äthiopier, die Meta verklagen, weil sie Inhalte nicht angemessen moderiert haben, die die Gewalt verstärkt haben, die während des Tigray-Krieges mehr als eine halbe Million Menschen das Leben gekostet hat, haben grünes Licht erhalten, den Social-Media-Riesen außerhalb Kenias zu bedienen. Das ist das Neueste Fall Ziel ist es, Facebook dazu zu zwingen, die Verbreitung gewalttätiger, hasserfüllter und hetzerischer Beiträge einzustellen.

Ein kenianisches Gericht gewährte den Klägern am Donnerstag die Erlaubnis, Meta in Kalifornien, USA, zu betreuen, nachdem es ihnen nicht gelungen war, das Büro des Social-Media-Riesen vor Ort aufzuspüren. Es stellte sich heraus, dass Meta zwar geschäftlich in Kenia tätig ist, jedoch über kein physisches Büro verfügt, da die Mitarbeiter vor Ort remote arbeiten.

Die Entscheidung legt den Grundstein für den Beginn einer Klage, die im Dezember letzten Jahres von der kenianischen Menschenrechtsgruppe Katiba Institute und den äthiopischen Forschern Fisseha Tekle und Abrham Meareg eingereicht wurde. In der Klage heißt es, Mearegs Vater, Professor Meareg Amare Abrha, sei während des Tigray-Krieges getötet worden, nachdem Facebook-Posts ihn gedoxt und zu Gewalt gegen ihn aufgerufen hatten.

Die Petenten wollen Meta dazu zwingen, viralen Hass auf Facebook zu stoppen, die Überprüfung von Inhalten im Moderationszentrum in Kenia zu intensivieren und einen Entschädigungsfonds in Höhe von 1,6 Milliarden US-Dollar einzurichten.

Die Petenten behaupten, dass der Facebook-Algorithmus hasserfüllte und hetzerische Beiträge verstärkt habe, die zu mehr Interaktionen führten und die Benutzer länger angemeldet hielten.

Sie behaupten, Facebook habe „zu wenig“ in die Überprüfung menschlicher Inhalte am Hub in Kenia investiert und dabei Menschenleben riskiert, da es Beiträge ignorierte, ablehnte oder nur schleppend entfernte, wenn sie ebenfalls gegen die Community-Standards verstießen.

Siehe auch  Expedia möchte, dass Sie ChatGPT Ihre Reisepläne anvertrauen

Meareg sagte, seine Familie habe aus erster Hand erfahren, wie eine fehlerhafte Moderation von Inhalten Leben gefährden und Familien zerstören könnte.

Er behauptet, sein Vater sei ermordet worden, nachdem Meta wiederholten Aufforderungen zur Entfernung nicht nachgekommen sei Beiträge, die auf ihn und andere Tigrayaner abzielten, da Aufrufe zum Massaker an der ethnischen Gruppe online und offline verbreitet wurden. Der Tigray-Krieg, der zwei Jahre dauerte, brach im November 2020 aus, nachdem die äthiopische Armee mit Tigray-Streitkräften zusammenstieß. 600.000 Menschen sterben.

„Mein Vater wurde getötet, weil auf Facebook veröffentlichte Beiträge ihn identifizierten, ihn fälschlicherweise beschuldigten, seine Wohnadresse preisgaben und seinen Tod forderten“, sagte Meareg, ein ehemaliger Doktorand, und fügte hinzu, dass er gezwungen war, das Land zu verlassen und zu suchen Asyl in den USA nach dem Tod seines Vaters.

„Der Fall meines Vaters ist kein Einzelfall. Ungefähr zur Zeit der Posts und seines Todes war Facebook mit hasserfüllten, hetzerischen und gefährlichen Posts übersät … viele andere Tragödien wie unsere haben sich ereignet“, sagte er.

Meta lehnte einen Kommentar ab.

Meareg sagt, er habe die Beiträge, auf die er gestoßen sei, gemeldet, aber seine Berichte seien entweder abgelehnt oder ignoriert worden. Er behauptet, im Jahr 2021 mehrere Beiträge gemeldet zu haben, darunter einen, der Leichen enthielt, und einige dieser Beiträge befanden sich noch auf der sozialen Website, als er letzten Dezember vor Gericht ging.

Er bemängelte die Inhaltsüberprüfung von Facebook und sagte, der Hub in Kenia habe nur 25 Moderatoren, die für Amharisch-, Tigrinya- und Oromo-Inhalte verantwortlich seien, wodurch 82 andere Sprachen ohne Personal zur Moderation ausgelassen würden.

Siehe auch  Twitter kooperiert mit eToro, damit Benutzer Aktien und Krypto kaufen können

Meta teilte TechCrunch zuvor mit, dass es Teams und Technologie eingesetzt habe, um Hassreden und Hetze zu beseitigen, und dass es Partner und Mitarbeiter mit Ortskenntnissen habe, die ihm bei der Entwicklung von Methoden zur Erkennung rechtsverletzender Inhalte helfen würden.

„In Facebook hat sich ein Fehler ausgebreitet, der es zu einer Waffe zur Verbreitung von Hass, Gewalt und sogar Völkermord gemacht hat“, sagte Martha Dark, Direktorin von Foxglove, einer NGO für Technologiejustiz, die den Fall unterstützt. „Meta könnte heute echte Maßnahmen ergreifen, um der Ausbreitung des Hasses auf Facebook Einhalt zu gebieten.“

Dies ist nicht das erste Mal, dass Meta beschuldigt wird, Gewalt in Äthiopien zu schüren. Hinweisgeber Frances Haugen hatte es zuvor vorgeworfen der „ethnischen Gewalt buchstäblich zu schüren“ in Äthiopien, und a Global Witness-Untersuchung stellte außerdem fest, dass Facebook bei der Erkennung von Hassreden in der Hauptsprache Äthiopiens schlecht sei.

Menschenrechtsgruppen, Aktivisten und Whistleblower letzte Woche Mitunterzeichner eines offenen Briefes fordert Facebook auf, Änderungen an seinem Algorithmus vorzunehmen und bessere Schutzmaßnahmen einzuführen.

Derzeit bleiben Social-Media-Plattformen, darunter Facebook, in Äthiopien seit Anfang Februar blockiert, nachdem staatliche Pläne zur Spaltung der äthiopisch-orthodoxen Tewhado-Kirche zu Protesten gegen die Regierung geführt hatten.

Was zu Metas Problemen in Kenia beiträgt

Meta sieht sich in Kenia mit drei Klagen konfrontiert.

Das Unternehmen und sein Content-Review-Partner in Subsahara-Afrika, Sama, wurden im vergangenen Mai in Kenia von Daniel Motaung, einem ehemaligen Content-Moderator, wegen Ausbeutung und Gewerkschaftszerstörung verklagt.

Motaung behauptete, von Sama entlassen worden zu sein, weil er 2019 einen Streik organisiert hatte, der darauf abzielte, die Mitarbeiter von Sama gewerkschaftlich zu organisieren. Er verklagte Meta und Sama wegen Zwangsarbeit, Ausbeutung, Menschenhandel, unfairen Arbeitsbeziehungen, Gewerkschaftszerstörung und mangelnder Bereitstellung „angemessener“ psychischer und psychosozialer Unterstützung.

Siehe auch  Typ, der an die Tür von Luna Boss klopfte, verlor Millionen in Krypto

Meta beantragte die Streichung seines Namens aus der Klage mit der Begründung, Motaung sei nicht sein Angestellter und das kenianische Gericht sei dafür nicht zuständig. Es gelang jedoch nicht, die Klage einzustellen, nachdem das Gericht entschieden hatte, dass es einen Fall zu beantworten habe, da das Unternehmen aufgrund einiger Aspekte seiner Geschäftstätigkeit im Land haftbar sei. Der Social-Media-Riese hat gegen die Entscheidung des Gerichts Berufung eingelegt.

Anfang dieses Monats wurde Meta zusammen mit Sama und einem anderen Content-Review-Partner, Majorel, von 183 Content-Moderatoren verklagt, die behaupteten, sie seien rechtswidrig entlassen und auf die schwarze Liste gesetzt worden. Die Moderatoren behaupteten, sie seien von Sama rechtswidrig entlassen worden, nachdem das Unternehmen seine Abteilung für Inhaltsüberprüfung eingestellt hatte, und Meta habe seinen neuen in Luxemburg ansässigen Partner Majorel angewiesen, ehemalige Inhaltsmoderatoren von Sama auf die schwarze Liste zu setzen.

Meta wollte ebenfalls aus diesem Fall ausgeschlossen werden, aber letzte Woche erklärte das kenianische Gericht, es sei für Streitigkeiten zwischen Arbeitgebern und Arbeitnehmern und „Angelegenheiten der angeblich rechtswidrigen und ungerechtfertigten Beendigung des Arbeitsverhältnisses aufgrund von Entlassungen“ zuständig und habe Befugnisse. „um angebliche Verletzungen der Menschenrechte und Grundfreiheiten durchzusetzen“ von Meta, Sama und Majorel.

Aktualisiert, um Gedanken aufzunehmen, die in einem offenen Brief an Meta von Menschenrechtsgruppen, Aktivisten und Whistleblowern geäußert wurden

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein