Wenn sich die Leute beschweren, dass Ihr Technologieunternehmen die Welt ruiniert, stellen Sie einen Typen wie Rob Leathern ein. Er trat Meta bei, dem Unternehmen, das früher als Facebook bekannt war, gerade als der Skandal um Cambridge Analytica die Öffentlichkeit davon überzeugte, dass Facebook eine existenzielle Bedrohung für die Demokratie darstellt. Während der Wahlen 2020 und des Ausbruchs der Coronavirus-Pandemie leitete Leathern die Bemühungen, Datenschutz, Fehlinformationen und andere Probleme im Werbesystem von Facebook anzugehen. Unmittelbar nach der Wahl hat Google ihn abgeworben und Leathern als Vizepräsidenten für Produkte im Zusammenhang mit Datenschutz und Sicherheit eingesetzt – gerade als die Aufsichtsbehörden jahrelange Anstrengungen unternahmen, um den Suchgiganten genauer unter die Lupe zu nehmen.

Jetzt, nach zwei Jahren bei Google, ist Leathern raus. Er twitterte, dass Freitag sein letzter Tag im Unternehmen war. Leathern stimmte zu, mit Gizmodo zu telefonieren, und obwohl er nicht erklärte, warum er Google verlassen hat oder wohin er als nächstes geht, hatte er viel zu einem Thema zu sagen: heutzutage das öffentliche Gesicht großer Probleme bei Big Tech will darüber reden künstliche Intelligenz.

Leatherns Hintergrund gibt ihm ungewöhnliche Einblicke in das, was passieren muss, wenn die Welt sich um Werkzeuge wie z ChatGPT und wie Unternehmen mögen OpenAI wachsen exponentiell.

Anfang der 2010er-Jahre schützten blinder Optimismus und schnelles Geld im Silicon Valley die Tech-Giganten vor Kritik. Die Dinge sind jetzt anders. Fast so schnell, wie KI-Chatbots die Aufmerksamkeit der Öffentlichkeit erregten, begannen wir darüber zu sprechen, ob die Technologie uns alle zerstören wird. In naher Zukunft müssen Unternehmen wie OpenAI, Google und Microsoft Programme hochfahren, die es ihnen ermöglichen zu sagen: „Wir hören Ihre Bedenken, aber keine Sorge, wir haben alles unter Kontrolle.“ Leathern weiß, wie man solche Operationen durchführt.

Dieses Interview wurde aus Gründen der Übersichtlichkeit leicht bearbeitet.


Thomas Germain: Wenn Sie sich die letzten Jahre Ihrer Karriere ansehen, waren Sie jemand, der von Unternehmen zu Unternehmen gesprungen ist, um einige der größten gesellschaftlichen Probleme in der Technologiewelt anzugehen. Wie sehen Sie den Moment, den wir mit KI durchleben?

Rob Leathern: Ja. Ich bin 2017 zu Facebook gekommen, um an Integritätssachen zu arbeiten, und das erinnert mich irgendwie an die Situation, in der wir uns damals befanden. KI fühlt sich irgendwie so an wie Social Media in den Jahren 2015 oder 2016, es gab die Möglichkeit, eine Reihe von Systemen zu bauen, um große Probleme anzugehen, aber noch hat es niemand unbedingt getan. Ich denke, wir befinden uns an einem ähnlichen Wendepunkt, aber wir bewegen uns sogar noch schneller. Ich meine, diese Tools haben von Natur aus so viel mehr Feedback-Schleifen, die in sie eingebettet sind. Das Tempo des Wandels ist wahnsinnig, also ist dies der richtige Zeitpunkt, um über dieses Zeug nachzudenken.

TG: Ich weiß also, dass Sie kein technischer Experte für KI sind, aber haben Sie als Tech-Insider irgendwelche Gedanken darüber, wie weit wir genau über den Rubikon hinaus sind?

RL: Ich denke, es gibt Leute, die diese Frage besser beantworten können als ich, aber was ich sagen kann, ist, dass es eine unglaubliche Dynamik gibt, die Druck auf die Leute auf beiden Seiten ausübt, und der Anreiz, schnell zu handeln, macht mir Sorgen. Unternehmen stehen unter großem Druck, Fortschritte zu machen, herauszufinden, wie sie das nächste Modell trainieren oder den nächsten Meilenstein erreichen können.

Siehe auch  Mehr Ex-Tweeps verklagen Twitter wegen angeblicher illegaler Entlassungen

Dann, was ich aus meiner Arbeit zum Thema Datenschutz und Sicherheit gesehen habe In den letzten sechs Jahren gab es auch auf der anderen Seite der Medaille Druck. Auch die Regulierungsbehörden konkurrieren miteinander, und jeder möchte gesehen werden, dass er diese Fortschritte zurückdrängt. Mit anderen Worten, es gibt konkurrierende Anreize in alle Richtungen, sich schneller und weniger vorsichtig zu bewegen, als Sie es sonst tun würden. Gleichzeitig stehen manche Unternehmen auch unter dem Druck, manche Dinge mehr zurückzuhalten, als ihnen lieb ist.

TG: Richtig, da gibt es eine echte Spannung. OpenAI hat einen Anreiz, sich so schnell wie möglich zu bewegen, um zu beweisen, dass es führend ist. Ältere Akteure wie Google und Microsoft haben gezeigt, dass sie mithalten, aber sie haben eine größere Verantwortung, als vorsichtig und methodisch angesehen zu werden.

RL: Ja, es wird wirklich interessant zu beobachten, wie sich diese Dynamik entwickelt. Die größeren Unternehmen stehen unter strengerer Beobachtung, müssen also langsamer vorgehen und Kontrollmechanismen einrichten. In einigen Fällen führt das dazu, dass talentierte Leute frustriert sind und gehen wollen. Es ist wirklich der Spillover-Effekt der vergangenen Herausforderungen, die sie in Bezug auf Themen wie Datenschutz und Sicherheit hatten, und die daraus resultierenden Vorschriften. Das hat einen großen Einfluss auf ihre Agilität.

TG: Wie bringen Unternehmen, die an KI arbeiten, ein Gleichgewicht zwischen schnellem und verantwortungsvollem Handeln?

RL: Wir befinden uns an diesem Übergangspunkt, an dem KI-Ethikforscher, die Weißbücher geschrieben haben, großartige Arbeit geleistet haben. Aber vielleicht ist es jetzt an der Zeit, zu Leuten überzugehen, die mehr praktische Erfahrung mit Sicherheit, Integrität und Vertrauen haben. Dies wird viele verschiedene Bereiche berühren. Es können scheinbar so kleine Dinge sein wie die Überwachung der Identitäten von Entwicklern im API-Ökosystem [the systems that let outside companies access a tech company’s products]. Das kam zum Beispiel bei der Cambridge Analytica-Ausgabe bei Facebook heraus. Sie müssen anfangen, diese Leute an Ort und Stelle zu bringen, und ich vermute, dass sie bei den meisten dieser großen Technologieunternehmen noch nicht ganz so weit sind, wenn es um KI geht.

TG: Wenn wir uns die Diskussion um KI ansehen, scheint es, als würden wir diese Diskussion viel, viel früher im Prozess führen als vor zehn Jahren mit Social Media. Liegt das daran, dass wir einige Lektionen gelernt haben, oder liegt es daran, dass sich die Technologie so schnell entwickelt?

RL: Ich denke, es ist ein bisschen von beidem, und es ist nicht nur die Geschwindigkeit, sondern auch die Zugänglichkeit dieser Systeme. Die Tatsache, dass so viele Leute mit MidJourney oder ChatGPT gespielt haben, gibt den Leuten ein Gefühl dafür, was die Vor- und Nachteile der Technologie sein könnten.

Ich denke, wir haben auch einige Lektionen aus der Vergangenheit gelernt. und wir haben gesehen, wie verschiedene Unternehmen Mechanismen geschaffen haben, um diese Bedenken auszuräumen. Eine ganze Generation von Ingenieuren, Produktmanagern, Designern und Datenwissenschaftlern arbeitet an diesen gesellschaftlichen Problemen im Zusammenhang mit sozialen Netzwerken, sei es Datenschutz, Inhaltsmoderation, Fehlinformationen oder was auch immer.

Siehe auch  Der Paper Laptop von Modos ist der erste Laptop mit E-Paper-Bildschirm

TG: Wie bei so vielen dieser Probleme sind einige – aber nicht alle – Bedenken in Bezug auf KI vage und hypothetisch. Was sind die großen Dinge, über die Sie sich Sorgen machen?

RL: Nun, jeder konzentriert sich so sehr auf die großen Veränderungen, aber ich denke, es ist interessant, sich etwas von dem anzusehen, was im Mikromaßstab passieren wird. Ich denke, die Probleme werden viel subtiler sein, als wir es gewohnt sind. Nehmen Sie die andere Seite von Deepfakes. Wir haben von Wasser gehörtmarkierenInhalte von ChatGPT oder Bildgeneratoren, aber was willst du beweisen, dass ein Bild, das du gemacht hast, ein echtes Foto ist? Das Markieren von Bildern mit Standort und einer Art persönlicher Kennung ist eine Lösung, aber dann erstellen Sie diese neuen Signale, die Datenschutzprobleme aufwerfen können.

Ein weiteres nicht offensichtliches Problem ist, dass jeder die kostenlosen Versionen dieser Tools verwenden kann, die kostenpflichtigen und leistungsstärkeren Versionen jedoch weniger zugänglich sind. KI könnte aus Sicht des Eigenkapitals möglicherweise problematisch sein und eine weitere Möglichkeit für wohlhabende Leute schaffen, sich einen Vorteil zu verschaffen. Das wird bei Einzelpersonen, aber auch bei Unternehmen auf der Kundenseite der Fall sein. Diese Technologie wird die Besitzenden und Besitzlosen weiter trennen.

TG: Angesichts der Natur dieser Technologie ist es schwer vorstellbar, was Regulierungsbehörden überhaupt dagegen tun können. Die wirtschaftsfreundliche Regierung in den Vereinigten Staaten zum Beispiel hat nicht vor, diese Technologie zu verbieten. Es ist zu spät?

RL: Nun, es gibt Anforderungen, die Sie sich vorstellen können, die Regierungen aufstellen können. Möglicherweise müssen Sie Ihre Technologie beispielsweise registrieren, wenn Sie mehr als x GPUs verwenden oder was auch immer die richtige Metrik ist. Aber Sie werden immer noch Leute haben, die ihre unlizenzierte Technologie in einem Keller betreiben, und welchen Plan wir auch immer entwickeln, ausländische Regierungen werden sich nicht darum kümmern. Ich denke, bis zu einem gewissen Grad ist die Zahnpasta aus der Tube, und es wird schwierig sein, sie wieder hineinzustecken.

TG: Ich berichte seit fast einem Jahrzehnt über Datenschutz. In diesem Bereich scheint es, als hätten Regulierungsbehörden und Gesetzgeber erst im vergangenen Jahr die digitale Wirtschaft zum ersten Mal wirklich erfasst. KI ist ein noch größeres Problem. Sind Sie hoffnungsvoll in Bezug auf die Fähigkeit, diesen Raum zu regulieren? Die Aussichten fühlen sich ziemlich miserabel an.

RL: Uns steht eine sehr herausfordernde Zeit bevor. Ich denke, wir werden am Ende mit einem Flickenteppich von Vorschriften enden, die nur aus anderen Dingen kopiert und eingefügt werden, die nicht gut miteinander harmonieren. Aber die Menschen sind besser auf die Fakten dieser Situation eingestellt. Ich denke nicht, dass die richtige Antwort darin besteht, eine leere Aussage zu machen, dass wir die Dinge verlangsamen müssen, weil wiederum weniger gut gemeinte Akteure wie China voranschreiten werden.

Eine interessante Lehre aus der Arbeit an Datenschutz und Sicherheit ist, dass es in den frühen Tagen Leute gibt, die sehen, wie schlimm die Lücken sind, und sie auf die Seite fallen, Dinge herunterzufahren. Aber um in diesen Rollen effektiv zu sein, müssen Sie sowohl das Abwärtsrisiko als auch das Aufwärtspotenzial einschätzen können. Ich habe immer gesagt, man muss ein optimistischer Pessimist sein. Es besteht die Möglichkeit, Regeln, Richtlinien und Implementierungen zu erstellen, die es tatsächlich ermöglichen, dass die guten Dinge gedeihen und gleichzeitig die Schäden reduzieren.

Siehe auch  Hier sind einige andere neu auftretende Krankheiten, die Sie nachts wach halten

TG: Das ist eine ziemlich branchenfreundliche Perspektive, aber Sie haben Recht. Unsere Regierung wird OpenAI nicht schließen. Die einzige Hoffnung ist eine Lösung, die innerhalb des Systems funktioniert.

RL: Rechts. Wenn Sie den Ansatz „alles abschalten“ wählen, wird es unter anderem einfach nicht passieren. Sie brauchen die gegnerischen Leute, aber Sie brauchen auch Optimisten in Ihrem Portfolio. Und schau, die andere Sache, die auch wahr ist, ist, dass es wirklich schwer ist, oder? Weil du Dinge erschaffst, die es vorher noch nicht gegeben hat. Es gibt nicht immer gute Entsprechungen zu etwas wie „Wie mache ich ein bestimmtes Tool privat?“ Und wie ich immer sagte, als ich im Namen von Facebook sprach, Sie wären wirklich erstaunt, wie innovativ die Bösewichte sein können. Sie führen auch Vorfallüberprüfungen durch. Sie teilen Wissen und Daten. Es wird ein unglaublich gegnerischer Raum sein.

TG: Ich möchte Sie zu einem ganz anderen Thema befragen, wenn Sie mir erlauben, und das ist TikTok. Was ich in meiner Berichterstattung gesagt habe, ist, dass viele Bedenken übertrieben sind und Diskussionen über das Verbot von TikTok oder ByteDance wie eine nutzlose Übung erscheinen, wenn man bedenkt, wie undichte Werbetechnologie ist. Aber Sie haben eine Perspektive aus dem Technologiegeschäft. Liege ich falsch?

RL: Ihre Einstellung stimmt mit meinen diesbezüglichen Gefühlen überein. Schauen Sie, es ist wichtig, wissen Sie, Fragen über die Eigentumsverhältnisse und die Struktur dieser Organisationen zu stellen. Aber ich stimme zu, die Idee eines Verbots wird nicht alle Vorteile haben, die manche Leute vermuten. Unternehmen wie TikTok müssen eine bessere Geschichte und eine bessere Realität in Bezug auf Eigentum und Kontrolle haben und wohin die Daten der Menschen gehen und was die Aufsichten und Kontrollen sind. Aber es zu verbieten, klingt nicht nach der richtigen Lösung.

TG: Auf der anderen Seite hört man TikTok immer wieder über dieses „Project Texas“ reden, wo sie planen, alle Daten auf Servern in den USA unterzubringen. Und sicher, es ist eine gute Idee, Sie könnten es auch. Aber über den physischen Standort eines Servers zu sprechen, als ob das jemanden beruhigen sollte, erscheint lächerlich. Fühlt sich das für Sie sinnvoll an?

RL: Diese Systeme sind kompliziert, und zu sagen, oh, es ist alles auf Server X im Vergleich zu Server Y, spielt keine Rolle. Was beruhigender wäre, wäre die zusätzliche Aufsicht, aber andererseits sind diese Dinge auch ziemlich schwierig einzurichten. Die Menschen suchen nach einem Maß an Gewissheit zu diesem Thema, das schwer zu bekommen ist. Tatsächlich kann jede Gewissheit, die wir bekommen, nur halluzinatorisch sein.

Möchten Sie mehr über KI, Chatbots und die Zukunft des maschinellen Lernens erfahren? Schauen Sie sich unsere vollständige Berichterstattung über an künstliche Intelligenzoder stöbern Sie in unseren Leitfäden zu Die besten kostenlosen KI-Kunstgeneratoren Und Alles, was wir über ChatGPT von OpenAI wissen.

Anzeige

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein