Bei der Untersuchung von Cookies, also kleinen Datenmengen, die von den von Benutzern besuchten Websites in Browsern hinterlassen werden, entdeckte Frau Murgia ein Profil von sich selbst mit erstaunlichen Details – aufdringlich und, weil es für jeden wertvoll war, der ihr etwas verkaufen wollte, ausbeuterisch. KI bringt dieses Eindringen und die Ausbeutung auf die nächste Ebene. Hier ist eine Reihe von Geschichten, die erzählen, wie KI unter dem Deckmantel, Gutes zu tun, als Werkzeug auf äußerst aufdringliche, ausbeuterische und zutiefst unethische Weise eingesetzt wird.

KI-Systeme benötigen Berge von Daten. Gesichtserkennungssysteme beispielsweise nutzen Millionen von Gesichtern, um die wichtigsten Merkmale zu verstehen, an denen sie jemanden erkennen können. Je mehr Gesichter in der Datenbank vorhanden sind, desto genauer ist das System. Wie gelangen all diese Daten in das System? Frau Murgia beginnt mit Geschichten von Menschen, die ihren Lebensunterhalt damit verdienen, sich Bilder und Videos anzusehen und Teile davon als Menschen oder Cafés oder was auch immer das System wissen muss, zu kennzeichnen. Dazu gehört, sich Pornografie anzuschauen und dem System mitzuteilen, was (illegale) Kinderpornografie und was (legale) Erwachsenenpornografie ist, damit Social-Media-Seiten wissen, was sie hosten sollen und was nicht. Und jedes Mal, wenn sich die rechtliche Definition ändert, muss dieser Vorgang wiederholt werden.

Die Schwierigkeit liegt nicht im Training selbst, sondern darin, wie ausbeuterisch es ist. Dies wird von einer großen Zahl von Menschen in Niedriglohnländern – zum Beispiel Teilen Afrikas und Südasiens – zu minimalen Löhnen, unter stressigen Bedingungen, nach der Unterzeichnung von Geheimhaltungsvereinbarungen und mit geringer oder keiner medizinischen Absicherung für die Arbeit getan, wie z Kinderpornos ansehen zu müssen, kann zu schweren psychischen Schäden führen.

Siehe auch  Wer ist Sam Altman, der CEO von OpenAI und Schöpfer von ChatGPT?

Frau Murgia erforscht anhand von Geschichten die Art und Weise, wie KI-Systeme eindringen und sie ausnutzen. Neben der Ausbildung deckt sie sieben große Bereiche ab. Da ist der Körper, der Deepfakes und den Missbrauch des Wissens über Ihren Körper abdeckt, der Ausbeutern zur Verfügung steht, die Ihr Gesicht in ein Pornovideo einfügen und es ohne rechtliche Konsequenzen im Netz zur Schau stellen können.

Dann ist da noch Ihre Identität – wie KI-Systeme Menschen identifizieren, beispielsweise anhand eines Standbilds aus einem Video einer Person, das mit einer Überwachungskamera aufgenommen wurde. Hier ist etwas über Gesichtserkennungssysteme, die von IBM, Microsoft und Face++ entwickelt wurden: „Die Fehlerquote bei hellhäutigen Männern lag bei weniger als einem Prozent, während diese Zahl bei dunkelhäutigen Frauen bei 35 Prozent lag.“ Es ist eine Kombination aus falsch positiver Erkennung durch KI-Systeme und Voreingenommenheit bei Menschen – zum Beispiel Vorurteile gegenüber farbigen Menschen in den USA –, die den Einsatz von KI-Systemen gefährlich macht.

Es gibt Gesundheit in allen Gesellschaften, aber vor allem in ärmeren Gegenden wie den Stammesgebieten im ländlichen Indien. Hier kann KI den größten Unterschied machen, indem sie bei der Diagnose, Behandlung und Nachsorge von Krankheiten wie Tuberkulose hilft, die eine frühzeitige Erkennung und konsequente Behandlung und Nachsorge erfordern, um sie zu heilen und schließlich zu beseitigen. Das Risiko besteht darin, dass seine Verfügbarkeit kommende Generationen von Ärzten davon abhält, sich intensiver mit den Patienten auseinanderzusetzen.

Auch Ihre Freiheiten stehen auf dem Spiel – Murgia berichtet beispielsweise von einem Fall in den Niederlanden, bei dem jugendliche Brüder auf einer Liste zu überwachender Jugendlicher standen, was oft zu Polizeibesuchen, Verhaftungen, Verhören und extremen Störungen des Lebens führte ohne jeglichen Grund. In China gibt es Horrorgeschichten über Menschen, denen verschiedene Optionen verweigert werden, weil ihr Gesicht auf einem System abgebildet ist, das sie als regierungsfeindlich bezeichnet. Was zum Beispiel den Uiguren angetan wurde, könnte als Beispiel für ein außer Kontrolle geratenes KI-basiertes Regierungssystem gelten.

Siehe auch  Neuronales Netzwerk im Urlaub: Die Genauigkeit der ChatGPT-Antworten ist gesunken | Gadgets

Es gibt auch das „Sicherheitsnetz“ – die Versorgung der Armen, eine Aufgabe der Regierungsführung. Ein Teil davon wird der KI übergeben, beispielsweise die Identifizierung von Menschen, die Hilfe benötigen, wie zum Beispiel alleinerziehende Mütter im Teenageralter. In einem UN-Bericht aus dem Jahr 2019 heißt es beispielsweise, dass digitale Technologie, einschließlich KI, die verwendet wird, um herauszufinden, wer Hilfe verdient, dazu dient, die Armen „vorherzusagen, zu identifizieren, zu überwachen, aufzuspüren, ins Visier zu nehmen und zu bestrafen“! Der Bericht verweist auch auf die Bedrohung durch Datenkolonialismus in Form privater Unternehmen, die Regierungen auf der ganzen Welt beeinflussen, wie z. B. Meta, das kostenloses Internet anbietet und dessen Nutzung auf vom Anbieter genehmigte Websites beschränkt ist …

Schlecht konzipierte oder missbrauchte KI-basierte Systeme können sich Veränderungen widersetzen. Lebensmittellieferanten zum Beispiel stellen fest, dass es nahezu unmöglich ist, beispielsweise ein Restaurant aus einem System zu löschen und, noch schlimmer, einen Menschen zu finden, bei dem man sich beschweren kann! Also stornieren Zusteller Bestellungen für ein Restaurant, das seinen Betrieb aufgegeben hat!

Generative Systeme wie chatgpt sind leistungsstarke Vorhersagemaschinen, die Sätze erfinden können, die Lügen enthalten können. Ja, ChatGPT lügt. Möglicherweise gibt es hier keinen Grund – es liegt einfach an der Funktionsweise des Systems.

KI ist ein enorm mächtiges Werkzeug, das die Gesellschaft verändern kann, aber in den falschen Händen könnte sie die Gesellschaft zerstören. Die Frage ist: Was können wir tun, um sicherzustellen, dass alles größtenteils in den richtigen Händen bleibt? Frau Murgia stellt zehn aufschlussreiche Fragen zu Themen, die von regulierten Löhnen für KI-Datenarbeiter über die Information der Verbraucher darüber, welche Produkte KI-generiert oder unterstützt werden, bis hin zu Ethik in der KI und „Kanälen für die Stärkung der Bürger angesichts der KI“ reichen. Antworten darauf sollten eine Art Fahrplan für die Kontrolle der KI bieten.

Siehe auch  OpenAI suspendiert Bot-Entwickler für Kongressabgeordneten Dean Phillips: Bericht

Ein Problem, das ich hatte, war die Art und Weise, wie das Buch organisiert ist. Es gibt Überschneidungen, Geschichten, die in mehrere Kategorien passen. Hätte das Buch also anders organisiert sein können, um diese Ergebnisse besser darzustellen?

Auszug: Während unseres Gesprächs fragte ich sie, wie Online-Missbrauch rechtlich zu behandeln sei. Carrie lehnte meine Darstellung sofort ab und weigerte sich, sich auf die falsche Dichotomie von Online und Offline einzulassen. „Meiner Meinung nach passieren alle Verbrechen offline, weil jeder, dem sie passieren, ein Mensch und kein Computer ist“, sagte sie. „Die Online-Komponente ist nur die Waffe, die eingesetzt wird, nicht das Verbrechen selbst.“ „Jedes Mal, wenn jemand mit mir über Cyberstalking oder Online-Belästigung spricht, sage ich: Nein, es ist nur Belästigung, es ist nur Stalking.“

5/5 - (375 votes)
Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein