chatgpt kann den Newsnight-Opener schreiben, aber kann KI die Tech-Giganten retten?
Diese Woche hat die Cyberspace Administration of China die „Generative Artificial Intelligence Service Management Measures (Draft for Comment)“ herausgegeben, die besagt, dass „mit generativer künstlicher Intelligenz generierte Inhalte die Grundwerte des Sozialismus widerspiegeln sollten“ und dem Cyberspace Bericht erstatten müssen Verwaltung von China in Sicherheitsfragen Bewertung und Durchführung von Algorithmen und anderen Inhalten, um Aufmerksamkeit zu erregen.
So wie der Aufstieg von Tesla den Enthusiasmus der chinesischen Elektrofahrzeugindustrie erhöht hat, ist ChatGPT wie ein großes Feuer, das die gesamte Industrie der künstlichen Intelligenz entzündet.In nur wenigen Monaten brachte Baidu Wenxin Yiyan auf den Markt, Alibaba brachte Tongyi Qianwen, Baichuan Intelligence, Shangtang Technology und Kunlun Wanwei gaben ebenfalls ihre Absicht bekannt, in dieses Feld einzusteigen.
Sie werden zusammenfassend als „generative KI“ bezeichnet. Kurz gesagt, diese Art von KI kann durch Algorithmen ohne menschliches Eingreifen Originalinhalte erstellen, Bilder, Text, Musik und sogar Code und Video generieren.
Diese Funktion begeistert und schüchtert Benutzer ein. So können beispielsweise Nachrichtenbilder erstellt werden, die wie echte aussehen, sodass sich Falschinformationen schnell verbreiten können. Werden die neuen Regulierungsvorschriften in China und anderen Ländern eine gesunde Entwicklung dieser schnell beliebten Strecke ermöglichen?
Warum so früh regulieren?
„Es ist wirklich selten, Regulierungsmaßnahmen so schnell einzuführen. Zum Beispiel ist die P2P-Finanzierung überall und sie beginnt reguliert zu werden, bevor sie explodiert.“ Ein chinesischer Praktiker der künstlichen Intelligenz, der um Anonymität bat, sagte gegenüber BBC Chinese, dass der Ausbruch der generativen künstlichen Intelligenz dies nicht sei ungewöhnlich. In einem halben Jahr wurden Chinas entsprechende Anwendungen nur wenige Wochen lang gestartet und regulatorische Maßnahmen eingeführt. Für diese Geschwindigkeit gibt es drei Hauptgründe: die ethischen Fragen der generativen KI, die Zerstörungskraft und die extrem schnelle Entwicklung Rate.
Ethische Bedenken begleiten nahezu jeden Schritt in der Entwicklung künstlicher Intelligenz. Die „Empfehlung zur Ethik der künstlichen Intelligenz“ der Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur besagt, dass solche Technologien extrem invasiv sind, Menschenrechte und Grundfreiheiten verletzen und weit verbreitet sind.
Die Technologie stellt auch beispiellose neue Herausforderungen dar, heißt es in dem Vorschlag: zunehmende geschlechtsspezifische und rassistische Vorurteile, erhebliche Bedrohungen der Privatsphäre, Würde und Mobilität, Risiken der Massenüberwachung und verstärkter Einsatz von unausgereifter künstlicher Intelligenz bei der Strafverfolgung und so weiter. „Bisher hatten wir keinen gemeinsamen Standard, um mit diesen Themen umzugehen.“
Ethische Bedenken bestehen auch für ChatGPT – es hat eine „schockierende“ intelligente Seite gezeigt, die für viele Bereiche destruktiv ist. Ein direkteres Beispiel ist, dass einige College-Studenten es verwenden, um Papiere zu erstellen und Highscores zu erzielen.
Darüber hinaus ist die Entwicklung der generativen künstlichen Intelligenz extrem schnell: Nachdem ChatGPT im November letzten Jahres gestartet wurde, hat GPT-4, das im März dieses Jahres iteriert wurde, nicht nur ein breiteres Spektrum an Wissen und reibungsloseren Antworten, sondern kann es auch beginnen, Bildinhalte zu verstehen, gute Prüfungsleistungen zu erbringen und die Fähigkeit zur Selbstreflexion zu besitzen.
Sogar die Entwickler von ChatGPT sagen, dass die Gesellschaft nur eine begrenzte Zeit hat, um zu entscheiden, wie sie sie regulieren soll.
Einer der am meisten besorgten Artikel in den „Generative Artificial Intelligence Service Management Measures (Draft for Comment)“ lautet, dass „der durch generative künstliche Intelligenz generierte Inhalt die Grundwerte des Sozialismus widerspiegeln sollte und keine Subversion der Staatsmacht enthalten darf. Sturz des sozialistischen Systems oder Aufstachelung zur Sezession.“ Land, Untergrabung der nationalen Einheit, Förderung von Terrorismus, Extremismus, Förderung von ethnischem Hass, ethnischer Diskriminierung, Gewalt, obszönen und pornografischen Informationen, falschen Informationen und Inhalten, die die wirtschaftliche und soziale Ordnung stören können. „
Die oben genannten Brancheninsider glauben, dass es bei der externen Diskussion um die Vermeidung politischer Risiken geht: „Ich denke, es wird überinterpretiert wird am Anfang der Entwicklung stehen. Versuchen Sie, dies zu vermeiden, und die Richtung der Besorgnis sollte umgekehrt werden. Mit dem Werkzeug der generativen KI kann die Anwendung von Anti-Subversion, Anti-Trennung und groß angelegter Überwachung unerwartete Auswirkungen haben.“
Was ist der Unterschied zwischen den Vorschriften in China, den USA und Europa?
Derzeit stehen Geschwindigkeit und Intensität der Aufsicht in Europa an der Spitze, gefolgt von China und am langsamsten in den Vereinigten Staaten.
Am 31. März gab die italienische Datenschutzbehörde bekannt, dass die Verwendung von ChatGPT von nun an vorübergehend verboten wird. Viele Länder in der Europäischen Union haben ebenfalls damit begonnen, dem nachzugehen, und es wurde auch begonnen, spezifische regulatorische Maßnahmen bei der EU in Betracht zu ziehen eben.
China kündigte die Einführung der oben genannten Managementmaßnahmen am 11. April an und holte öffentlich Meinungen aus der Öffentlichkeit ein. Die Frist für Rückmeldungen endet am 10. Mai 2023. Nach dieser Einschätzung sollte die offizielle Umsetzung in der zweiten Jahreshälfte erfolgen .
Aus den aktuellen Vorschriften ist jedoch ersichtlich, dass das Verfahren eine Vorregulierung durchführt und die Standards immer noch sehr streng sind. Zum Beispiel: „Bevor Produkte der generativen künstlichen Intelligenz zur Bereitstellung von Diensten für die Öffentlichkeit verwendet werden, muss der nationalen Netzwerkinformationsabteilung gemäß den einschlägigen Vorschriften eine Sicherheitsbewertung vorgelegt werden, und die Anmeldeverfahren für Algorithmen sowie Änderungen und Löschungen müssen durchgeführt werden.
Auch die Vereinigten Staaten haben gehandelt: Am 5. April diskutierte US-Präsident Biden mit Technologieberatern im Weißen Haus auch über die Risiken und Chancen, die KI für die menschliche, soziale und nationale Sicherheit mit sich bringt. Biden sagte: „Meiner Meinung nach haben Technologieunternehmen eine Verantwortung, sicherzustellen, dass ihre Produkte sicher sind, bis sie veröffentlicht werden.“ Ob KI gefährlich sei, antwortete er: „Es bleibt abzuwarten, es gibt eine Möglichkeit.“
Am 11. April begann auch das US-Handelsministerium, öffentliche Meinungen offiziell einzuholen, einschließlich der Frage, ob neue Modelle künstlicher Intelligenz vor der Veröffentlichung Zertifizierungsverfahren durchlaufen sollten.
Erwähnenswert ist auch der Anwendungsbereich der in China erwogenen regulatorischen Maßnahmen – „diese Maßnahmen gelten für die Entwicklung und Nutzung von Produkten der generativen künstlichen Intelligenz zur Erbringung von Dienstleistungen für die Öffentlichkeit im Hoheitsgebiet der Volksrepublik China. „
Cai Peng und andere von der Anwaltskanzlei Zhong Lun in China schrieben eine Analyse.Diese Abgrenzungsmethode zeigt, dass unabhängig davon, wo sich das Unternehmen des generativen KI-Unternehmens befindet, es in die einbezogen wird, solange es die Nutzung durch inländische Benutzer unterstützt regulatorischen Anforderungen. Am Beispiel von ChatGPT geht es derzeit hart gegen die Kontoregistrierung und die Nutzung seiner Dienste aus Festlandchina vor.Es ist nicht ausgeschlossen, dass dies der erste Schritt ist, um die Zuständigkeit des chinesischen Rechts zu umgehen.
Dies zeigt indirekt auch, dass es im KI-Bereich zukünftig eine „Firewall“ geben wird, die das Muster der Internet-Ära nachbildet.
Die oben genannten Brancheninsider glauben auch, dass China und die Vereinigten Staaten im Zeitalter der künstlichen Intelligenz ebenso zwei unterschiedliche Märkte sein werden wie die Firewall im Internetzeitalter, wodurch jeder Track seine eigenen Giganten entwickeln wird.
„Die Entwicklung Europas im Internetzeitalter hinkt hinterher, sodass sie keine Chance haben, davon zu profitieren, aber sie können Schaden nehmen künstliche Intelligenz.“
Wird die Regulierung die Entwicklung der chinesischen KI-Industrie einschränken?
Ich stelle diese Frage, weil einige Branchen in China in den letzten Jahren ein sintflutartiges Durchgreifen der Regulierungsbehörden erlebt haben – die Aus- und Weiterbildungsbranche war „one size fits all“; Internetgiganten wurden verhört, mit Geldstrafen belegt und gespalten; nach dem „Three Red Lines“, die Schulden gerieten in Verzug und standen kurz vor dem Bankrott, wodurch ein „unfertiges Gebäude“ zurückblieb.
So sehr, dass die Nachricht von Ma Yuns Rückkehr nach China in diesem Jahr die Schlagzeilen vieler Medien dominiert hat, und sie spiegelt auch wider, dass Unternehmen vor Aufsicht zittern.
„Kurzfristig wird dies die Entwicklung von KI nicht behindern und möglicherweise sogar fördern.“ Die oben genannten Brancheninsider erklärten, die Logik dahinter sei, dass chinesische Unternehmen seit langem nervös wegen der Überwachung sind , insbesondere der von Natur aus sensiblen künstlichen Intelligenz, und Unternehmen wissen im Herzen, dass die Aufsicht früher oder später verstärkt wird, je früher jetzt die Grenze gezogen wird, desto besser wird sie sich entwickeln.
Erwähnenswert ist, dass dieses Regulierungsdokument auch die generative KI-Industrie eindeutig unterstützt und fördert, beispielsweise: „Der Staat unterstützt die unabhängige Innovation, Förderung und Anwendung sowie die internationale Zusammenarbeit von Basistechnologien wie künstlichem Beschäftigen sicherer und vertrauenswürdiger Software, Tools, Rechen- und Datenressourcen.“
Im Jahr 2017 veröffentlichte die chinesische Regierung auch den „New Generation Artificial Intelligence Development Plan“, der die strategischen Ziele für die Entwicklung der künstlichen Intelligenz vorlegt, „Guiding Opinions on Quality Development“, der eindeutig vorschlägt, eine eingehende Erforschung der künstlichen Intelligenz zu fördern Einsatzszenarien von Intelligence-Technologien in Schlüsselindustrien.
Diese Anzeichen zeigen, dass die Haltung der chinesischen Regierung gegenüber neuen KI-Produkten nicht so ist, „sie mit einem Stock zu töten“, wie es bei Kryptowährungen der Fall ist, sondern hofft, sie unter Kontrolle zu entwickeln.
Mögliche Lücken in der Regulierung
Im Vergleich zu früheren Low-End-KI-Dialogmodellen wie dem Kundenservice in Online-Shops kann die generative KI Inhalte auf der Grundlage vorhandener Informationen fabrizieren. Im chinesischen Internet hat beispielsweise jemand KI verwendet, um Fotos von Trump zu fabrizieren, als er verhaftet wurde. Realistisch , also glauben einige Internetnutzer, dass es wahr ist.
Im chinesischen Internet haben einige Internetnutzer ChatGPT sogar gebeten, ihre Lebensläufe abzugeben, aber ChatGPT hat direkt „gelogen“, eine völlig nicht vorhandene Erfahrung erfunden und sogar eine Reihe falscher Papiertitel und Links eingefügt.
Der neue Regulierungsansatz besagt: „Inhalte, die mit generativer künstlicher Intelligenz generiert werden, sollten wahr und genau sein, und Anbieter müssen Maßnahmen ergreifen, um die Generierung falscher Informationen zu verhindern.“
„Es ist weniger ein Schlupfloch als vielmehr ein unvernünftiger Ort. Zum Beispiel wird festgelegt, dass die von KI generierten Inhalte wahr und genau sein müssen. Das ist äußerst unvernünftig, weil sein Wesen ein kreatives Werkzeug ist. Es fühlt sich an, als würde man einen Maler angeben oder Dichter, Ihre Arbeit muss wahr und genau sein“, sagte der Brancheninsider.
Auch der oben erwähnte Artikel der Zhong Lun Law Firm erwähnte diesen Punkt – einerseits sind einige Inhalte, die durch generative künstliche Intelligenz generiert wurden, wie beispielsweise Artikel, Bilder und Videos, die von künstlicher Intelligenz erstellt wurden, von Natur aus „unwahre Inhalte“. eigenen Diensten gezwungen ist, zu verlangen, dass die von künstlicher Intelligenz generierten Inhalte wahrheitsgemäß und genau sein müssen, entspricht dies nicht der ursprünglichen Absicht der Technologie. Andererseits befindet sich die aktuelle Technologie der künstlichen Intelligenz noch im Entwicklungsstadium, da es rein technisch naturgemäß schwierig ist, eine hundertprozentige Authentizität und Genauigkeit der durch künstliche Intelligenz generierten Inhalte zu garantieren. Wenn der Inhalt nur deshalb unrichtig ist, weil der Inhalt falsch oder unvollständig ist, handelt es sich auch um eine „Falschinformation“? Daher muss der Umfang der „Falschinformationen“ weiter präzisiert und verfeinert werden.
Darüber hinaus müssen Unternehmen nach den detaillierten Vorschriften der Vorschriften Maßnahmen ergreifen, um das KI-Modell, das falsche Antworten generiert, innerhalb von drei Monaten zu korrigieren, um sicherzustellen, dass die gleichen Fehler nicht noch einmal passieren, was den Unternehmen tatsächlich viel bringt der Bearbeitungszeit.
Worüber machst du dir am meisten Sorgen?
„Was mich als Person in dieser Branche am meisten beschäftigt, ist nicht die Regulierung, sondern die Chip-Thematik.“ Die oben genannten Praktiker sagten, dass viele Menschen nicht wissen, dass das Training von KI eine hohe Rechenleistung erfordert und Nvidias High-End verwendet Chips, die im vergangenen Jahr von den USA verboten wurden, dürfte Chinas Entwicklung im Bereich der KI einschränken.
Im August 2022 verhängten die Vereinigten Staaten Beschränkungen für den Export von Chips für künstliche Intelligenz wie Nvidia A100 und H100 nach China.
Insbesondere hat die US-Regierung den Verkauf von Nvidias A100-Grafikprozessoren auf Länder und Regionen wie China, Hongkong und Russland beschränkt. Der A100, den es seit zwei Jahren gibt, ist in Rechenzentren für anspruchsvolle KI-Berechnungen weit verbreitet.
Nvidia gab auch an, dass die kommende H100-Chipserie des Unternehmens betroffen sein wird.Der H100 verfügt über einen fortschrittlicheren Herstellungsprozess und eine deutlichere Verbesserung im Computing mit künstlicher Intelligenz.
Für Nvidia hat der chinesische Markt höchste Priorität. Mehr als ein Viertel des Umsatzes von 26,9 Milliarden US-Dollar im vergangenen Jahr stammte aus China und Hongkong.
Zu den Nutzern des A100 gehören laut Nvidia Alibaba, Tencent und Baidu. Diese Unternehmen betreiben Chinas dominierende Cloud-Computing-Dienste und werden auch für Algorithmen und Schulungen für künstliche Intelligenz verwendet.