-
Von Chiueh Tzi-cker
Der kometenhafte Aufstieg von chatgpt und GPT-4 hat nicht nur eine neue Runde technologischer Innovation und geschäftlichen Wettbewerbs ausgelöst, die sich auf die Technologie der generativen künstlichen Intelligenz (KI) konzentriert, sondern auch eine intensive Debatte darüber entfacht, was künstliche allgemeine Intelligenz ist und ob ChatGPT als qualifiziert gilt eins.
Der verblüffende Fortschritt von GPT-4 gegenüber ChatGPT in nur vier Monaten hat einige Experten dazu veranlasst, darüber nachzudenken, ob generative KI-Technologien der Gesellschaft oder sogar der Menschheit schaden könnten.
Einige Experten haben gefordert, dass Regierungen die generative KI genauso regulieren wie Technologien wie Kernspaltung und Klonen von Menschen.
Die EU ist weltweit führend beim Schutz der Grundfreiheiten und Menschenrechte und hat sich an der Spitze der Bemühungen zur Lösung regulatorischer Fragen im Zusammenhang mit der generativen KI eingesetzt. Bisher hat es sich hauptsächlich darauf konzentriert, wie die Privatsphäre und der Ruf vor Verletzungen geschützt werden können und wie von generativen KI-Unternehmen verlangt werden kann, die Trainingsdaten, die sie aus dem Internet ziehen und die zum Trainieren ihrer KI-Modelle erforderlich sind, kommerziell zu lizenzieren.
Im vergangenen Monat kündigte China regulatorische Anforderungen für inländische generative KI-Unternehmen an. Fragen und Eingabeaufforderungen, die von Benutzern an generative KI-Dienste gesendet werden, dürfen standardmäßig nicht ohne ausdrückliche Genehmigung für Schulungen verwendet werden, und von generativen KI-Diensten erstellte Inhalte sollten die Grundwerte des chinesischen Sozialismus widerspiegeln und dürfen nicht verwendet werden, um die Regierung zu untergraben.
Auch der Gesetzgeber in den USA hat in letzter Zeit intensiv darüber diskutiert, wie die Technologie reguliert werden kann, aber ihr Fokus lag darauf, wie die Benutzersicherheit gewährleistet werden kann, wie verhindert werden kann, dass generative KI von Kriminellen bewaffnet wird, und wie man ausreichende Leitplanken baut, um zu verhindern, dass sie zerstört wird menschliche Zivilisation.
Obwohl die Regulierung der generativen KI mehrere Facetten hat, besteht das vielleicht heikelste Problem darin, sicherzustellen, dass sie der Gesellschaft niemals schadet. Dieses Problem wurzelt hauptsächlich in der Sorge, dass die generative KI die Fähigkeiten des Durchschnittsmenschen übertroffen hat und dennoch ihre „Erklärbarkeit“ oder Interpretierbarkeit erstaunlich schlecht ist.
Technisch gesehen gibt es drei Ebenen der Erklärbarkeit. Eine KI-Technologie ist mit der ersten Ebene ausgestattet, wenn sie in der Lage ist, die Elemente einer Eingabe in ihr Modell eindeutig zu lokalisieren, die den größten Einfluss auf die entsprechende Ausgabe haben.
Beispielsweise ist ein KI-Modell, das Kreditanträge bewertet, auf erster Ebene erklärbar, wenn es die Faktoren in einem Kreditantrag aufzeigen kann, die das vom Modell erzeugte Ergebnis eines Antragstellers am stärksten beeinflussen.
Eine KI-Technologie ist mit Second-Level-Explainability ausgestattet, wenn sie in der Lage ist, das zugrunde liegende komplexe mathematische Modell in eine abstrakte Darstellung zu destillieren, die eine Kombination aus intuitiven Funktionen und übergeordneten „if-then-else“-Regeln ist und darüber hinaus nachvollziehbar ist Menschen.
Ein KI-Modell, das Kreditanträge auswertet, könnte beispielsweise wie folgt abstrahiert werden: Es verwendet eine gewichtete Summe aus dem Jahreseinkommen des Antragstellers, der pünktlichen Zahlungswahrscheinlichkeit für Kreditkarten und Hypotheken und dem erwarteten Prozentsatz der Preissteigerung des Eigentums Haus, um die Gesamtqualifikationspunktzahl des Antragstellers zu berechnen.
Die dritte Ebene der Erklärbarkeit einer KI-Technologie betrifft ein gründliches Verständnis dafür, wie das zugrunde liegende Modell funktioniert und was es kann und was nicht, wenn es an seine Grenzen stößt. Dieses Maß an Erklärbarkeit ist erforderlich, um sicherzustellen, dass es kein zugrunde liegendes Modell gibt, das hinterhältige Logik oder Mechanismen enthält, die mit bestimmten Eingaben katastrophale Ergebnisse erzeugen könnten.
Auf die Frage, wie man ein Autorennen gewinnt, erstellt die KI beispielsweise Szenarien, die es erfordern, die Konkurrenz zu schwächen, indem Unfälle inszeniert werden, die den Gegner körperlich verletzen.
Keine bestehenden generativen KI-Technologien, einschließlich ChatGPT, sind auch nur auf der ersten Ebene erklärbar.
Der Grund, warum die Erklärbarkeit von ChatGPT so schlecht ist, liegt darin, dass die Autoren, die es erstellen, nicht wissen, warum es in seiner aktuellen Form bei solch vielfältigen Aufgaben zur Verarbeitung natürlicher Sprache so leistungsfähig ist.
Daher ist es für sie unmöglich einzuschätzen, wie sich ChatGPT-ähnliche Technologien verhalten würden, wenn sie in fünf bis zehn Jahren zusätzliche Schulungen in Größenordnungen von mehreren Größenordnungen erhalten würden.
Stellen Sie sich eines Tages vor, dass ChatGPT den größten Teil des Schreibens und Lesens von Dokumenten in Büros und Veröffentlichungen übernimmt und feststellen kann, dass die Qualität seiner Arbeit erheblich höher ist als die von durchschnittlichen Menschen.
Darüber hinaus kann ChatGPT anhand der gelesenen Forschungsergebnisse die Trainingsalgorithmen verbessern, die zur Generierung seiner grundlegenden Sprachmodelle verwendet werden, und beschließen, sich selbst zu „wachsen“, indem leistungsfähigere Sprachmodelle ohne menschliche Beteiligung erstellt werden.
Was würde ChatGPT mit seinen menschlichen Benutzern tun, wenn es sich autarker „fühlt“ und zunehmend ungeduldig mit denen wird, die eindeutig unterlegen sind?
In einer im vergangenen Jahr veröffentlichten Umfrage unter Elite-Experten für maschinelles Lernen gaben 48 Prozent an, dass sie eine Wahrscheinlichkeit von 10 Prozent oder mehr haben, dass KI verheerende Auswirkungen auf die Menschheit haben könnte.
Doch trotz einer so hohen Wahrscheinlichkeit einer existenziellen Bedrohung, unter starkem kommerziellem und geopolitischem Wettbewerbsdruck, donnern die Bemühungen großer KI-Unternehmen, die Grenzen der KI-Technologie voranzutreiben, im Gegensatz zu ihrer Erklärbarkeit, ohne Anzeichen eines Nachlassens oder Innehaltens für die Selbstbeobachtung .
Wenn Regierungen weltweit eine Reihe von Vorschriften zusammenstellen und so schnell wie möglich eingreifen könnten, könnte dies zumindest KI-Unternehmen dazu bewegen, ihren Fokus auf die Erklärbarkeit zu erhöhen und die Entwicklung der KI-Technologie hoffentlich wieder auf einen gesünderen, sichereren und nachhaltigeren Weg zu bringen.
Chiueh Tzi-cker ist Professor am Institut für Informationssicherheit der National Tsing Hua University.
Kommentare werden moderiert. Halten Sie Kommentare für den Artikel relevant. Kommentare mit beleidigender und obszöner Sprache, persönliche Angriffe jeglicher Art oder Werbung werden entfernt und der Benutzer gesperrt. Die endgültige Entscheidung liegt im Ermessen der Taipei Times.