Im Silicon Valley glauben einige der klügsten Köpfe, dass ein universelles Grundeinkommen (UBI), das den Menschen uneingeschränkte Barzahlungen garantiert, ihnen helfen wird, zu überleben und zu gedeihen, da fortschrittliche Technologien mehr Karrieren, wie wir sie kennen, von Angestellten- und Kreativberufen – Anwälten – eliminieren , Journalisten, Künstler, Software-Ingenieure – zu Arbeitsrollen. Die Idee hat genug Anklang gefunden Dutzende der garantierten Einkommensprogramme wurden seit 2020 in US-Städten gestartet.
Aber auch Sam Altman, der CEO von OpenAI und einer der bekanntesten Befürworter von UBI, glaubt nicht, dass es eine vollständige Lösung ist. Wie er während einer sagte hinsetzen Anfang dieses Jahres: „Ich denke, es ist ein kleiner Teil der Lösung. Ich finde es toll. Ich denke als [advanced artificial intelligence] immer mehr an der Wirtschaft teilnimmt, sollten wir Reichtum und Ressourcen viel mehr verteilen, als wir haben, und das wird mit der Zeit wichtig werden. Aber ich glaube nicht, dass das das Problem lösen wird. Ich glaube nicht, dass das den Leuten einen Sinn geben wird, ich glaube nicht, dass die Leute komplett aufhören werden, zu versuchen, neue Dinge zu erschaffen und zu tun und was auch immer. Ich würde es also als eine grundlegende Technologie betrachten, aber nicht als einen Plan für die Gesellschaft.“
Die Frage, die sich stellt, ist, wie ein Plan für die Gesellschaft dann aussehen soll, schreibt der Informatiker Jaron Lanier, einer der Gründer auf dem Gebiet der virtuellen Realität, in dieser Woche New-Yorker dass „Datenwürde“ ein noch größerer Teil der Lösung sein könnte.
Hier ist die Grundvoraussetzung: Im Moment geben wir unsere Daten meistens kostenlos im Austausch für kostenlose Dienste. Lanier argumentiert, dass wir im Zeitalter der KI damit aufhören müssen, dass die mächtigen Modelle, die derzeit ihren Weg in die Gesellschaft finden, stattdessen „mit den Menschen verbunden sein“ müssen, die ihnen so viel zu bieten haben, um sie aufzunehmen und von ihnen zu lernen .
Die Idee ist, dass Menschen „für das bezahlt werden, was sie erschaffen, auch wenn es gefiltert und neu kombiniert wird“ und zu etwas Unkenntlichem wird.
Das Konzept ist nicht ganz neu, da Lanier den Begriff der Datenwürde erstmals in einem Artikel der Harvard Business Review aus dem Jahr 2018 mit dem Titel „Ein Entwurf für eine bessere digitale Gesellschaft.“
Wie er damals zusammen mit dem Co-Autor und Ökonomen Glen Weyl schrieb: „[R]hetoric aus dem Tech-Sektor deutet auf eine kommende Welle der Unterbeschäftigung durch künstliche Intelligenz (KI) und Automatisierung hin.“ Aber die Vorhersagen der UBI-Befürworter „lassen nur Raum für zwei Ergebnisse“, und sie sind extrem, beobachteten Lanier und Weyl. „Entweder wird es trotz technologischer Fortschritte Massenarmut geben, oder viel Reichtum muss durch einen Sozialfonds unter zentrale, nationale Kontrolle genommen werden, um den Bürgern ein universelles Grundeinkommen zu verschaffen.“
Das Problem ist, dass beide „Macht zu stark konzentrieren und den Wert von Datenerstellern untergraben oder ignorieren“, schrieben sie.
Entwirre meinen Verstand
Natürlich ist es keine leichte Herausforderung, Menschen die richtige Menge an Anerkennung für ihre unzähligen Beiträge zu allem, was online existiert, zuzuweisen. Lanier räumt ein, dass sich selbst Datenwürdeforscher nicht darauf einigen können, wie alles entwirrt werden soll, was KI-Modelle aufgenommen haben, oder wie detailliert eine Bilanzierung versucht werden sollte. Dennoch glaubt Lanier, dass es machbar wäre – schrittweise.
Leider, selbst wenn ein Wille vorhanden ist, ist eine unmittelbarere Herausforderung – fehlender Zugang – viel zu überwinden. Obwohl OpenAI in den vergangenen Jahren einige seiner Trainingsdaten veröffentlicht hatte, hat es den Kimono seitdem vollständig geschlossen, unter Berufung auf Wettbewerbs- und Sicherheitsbedenken. Als Greg Brockman, Präsident von OpenAI, TechCrunch letzten Monat die Trainingsdaten für OpenAIs neuestes und leistungsfähigstes großes Sprachmodell, GPT-4, beschrieb, sagte er, dass sie aus einer „Vielzahl von lizenzierten, erstellten und öffentlich zugänglichen Datenquellen stammen, die öffentlich zugänglich sein können verfügbare persönliche Informationen“, aber er lehnte es ab, etwas Genaueres zu sagen.
Es überrascht nicht, dass die Regulierungsbehörden damit ringen, was zu tun ist. OpenAI – insbesondere dessen Technologie sich wie ein Lauffeuer verbreitet – steht bereits im Fadenkreuz einer wachsenden Zahl von Ländern, darunter die italienische Behörde, die die Verwendung ihres beliebten Chatbots ChatGPT blockiert hat. Französische, deutsche, irische und kanadische Datenregulierungsbehörden untersuchen ebenfalls, wie sie Daten sammeln und verwenden.
Margaret Mitchell, eine KI-Forscherin, die früher Googles KI-Ethik-Co-Leiterin war, erzählt der Verkaufsstelle Technologieüberprüfung dass es für all diese Unternehmen zum jetzigen Zeitpunkt fast unmöglich sein könnte, die Daten von Einzelpersonen zu identifizieren und aus ihren Modellen zu entfernen.
Wie von der Verkaufsstelle erklärt: OpenAI wäre heute besser dran, wenn es von Anfang an Datenaufzeichnungen eingebaut hätte, aber es ist Standard in der KI-Industrie, Datensätze für KI-Modelle zu erstellen, indem das Web wahllos gescrapt und dann ein Teil der Bereinigung ausgelagert wird -Up dieser Daten.
Wie man ein Leben rettet
Wenn diese Spieler nur ein begrenztes Verständnis davon haben, was jetzt in ihren Modellen steckt, ist das eine entmutigende Herausforderung für den Vorschlag von Lanier zur „Datenwürde“.
Ob es unmöglich wird, wird die Zeit zeigen.
Sicherlich liegt ein Verdienst darin, zu bestimmen manche Möglichkeit, Menschen das Eigentum an ihrer Arbeit zu geben, selbst wenn diese Arbeit äußerlich „anders“ ist, wenn ein großes Sprachmodell sie durchgekaut hat.
Es ist auch sehr wahrscheinlich, dass die Frustration darüber, wem was gehört, zunehmen wird, je mehr Teile der Welt durch diese neuen Tools umgestaltet werden. OpenAI und andere stehen bereits vor der Herausforderung zahlreich und breit gefächert Klagen wegen Urheberrechtsverletzungen darüber, ob sie das Recht haben, das gesamte Internet zu kratzen, um ihre Algorithmen zu füttern.
Wie auch immer, es geht nicht nur darum, Ehre zu erweisen, wo es angebracht ist; Die Anerkennung des Beitrags der Menschen zu KI-Systemen kann notwendig sein, um die geistige Gesundheit der Menschen im Laufe der Zeit zu bewahren, schlägt Lanier in seinem Artikel im New Yorker vor.
Er glaubt, dass die Menschen Entscheidungsfreiheit brauchen, und aus seiner Sicht läuft das universelle Grundeinkommen darauf hinaus, „alle auf Arbeitslosengeld zu setzen, um die Idee der künstlichen Blackbox-Intelligenz zu bewahren“.
In der Zwischenzeit würde die Beendigung der „Black-Box-Natur unserer derzeitigen KI-Modelle“ die Abrechnung der Beiträge der Menschen erleichtern – was sie eher dazu bringen würde, engagiert zu bleiben und weiterhin Beiträge zu leisten.
Es könnte alles darauf hinauslaufen, eine neue kreative Klasse statt einer neuen abhängigen Klasse zu gründen, schreibt er. Und bei welcher würden Sie lieber mitmachen?