Von der Überprüfung auf Tippfehler und dem Abrufen von Fakten bis hin zum Schreiben von Gedichten und der Schaffung von Kunstwerken können Systeme der künstlichen Intelligenz (KI) heute Aufgaben erledigen, zu denen sie noch vor ein paar Jahren kaum vorstellbar gewesen wären.
Diese neuen generativen KI-Systeme wie chatgpt, DALL-E2 und OpenArt erfreuen sich in den letzten Monaten immer größerer Beliebtheit. Aktuelle Daten gehen davon aus, dass ChatGPT über 100 Millionen Nutzer hat und OpenAI (Eigentümer und Entwickler von ChatGPT) jeden Monat etwa eine Milliarde Besucher auf seiner Website empfängt. Eine Analyse der Schweizer Bank UBS zeigt, dass dies der Fall ist am schnellsten wachsende Verbraucher-App in der Geschichte.
Während Technologietrends wie Web3 und das Metaversum viel Investitions- und Medienaufmerksamkeit auf sich gezogen haben, ist noch unklar, ob sie große Auswirkungen auf die reale Welt haben werden. Generative KI scheint anders zu sein.
Unter Technologieforschern und -kommentatoren herrscht breiter Konsens darüber, dass es sich um eine höchst bedeutsame Entwicklung handelt – mindestens genauso bedeutsam wie das Smartphone; wahrscheinlich so bedeutsam wie das Internet; und vielleicht so bedeutsam wie Elektrizität. Einige gehen sogar noch weiter und behaupten, es sei der Vorläufer der maschinellen Superintelligenz und daher ein existentielle Gefahr für die Menschheitdie dringend gemildert werden muss.
Dies mag überraschend erscheinen, wenn man bedenkt, dass KI-Systeme seit mehr als einem Jahrzehnt Teil des täglichen Lebens der britischen Bürger sind. Unabhängig davon, ob wir uns dessen bewusst sind oder nicht, haben KI-Systeme mit ihrer Fähigkeit, Muster in historischen Daten zu erkennen, unsere Social-Media-Feeds bewertet, bestimmt, welche digitalen Anzeigen uns gezeigt werden, und Filme empfohlen, die wir auf Streaming-Diensten sehen möchten.
Was ist also anders an generativer KI? Um es mit den Worten eines Technologieanalysten und Investors zu sagen Benedict Evans, seine Neuheit liegt darin, dass die Mustervergleichsmaschine im Rückwärtsgang läuft. Anstatt vorhandene Beispiele zu identifizieren, die zu einem bestimmten Muster passen, werden neue Beispiele des Musters „generiert“. Die Ausgabe generativer KI-Systeme ist alles, was als digitale Datei vorliegen kann – Text, Bilder, Audio oder Video. Das Ergebnis ist ein beispielloser Superverbreitung von Inhalten ist unterwegs.
Was sind große Sprachmodelle?
ChatGPT – eines der generativen KI-Systeme, die auf den Markt gekommen sind – ist ein Beispiel für ein großes Sprachmodell (LLM). Dabei konzentrieren wir uns auf die wirtschaftlichen Auswirkungen solcher Systeme.
LLMs erzeugen Textausgaben als Reaktion auf Anweisungen eines Benutzers in natürlicher Sprache (sogenannte „Eingabeaufforderungen“). LLMs werden anhand umfangreicher Texte aus Büchern und dem Internet trainiert und arbeiten mit iterativen statistischen Vorhersagen darüber, welches Wort in einer Sequenz als nächstes kommen sollte. Dadurch können sie zur Herstellung von Artikeln, AufsätzeComputercode, Geschichten, Gedichte, Liedtexte, Nachrichten, Briefe, politische Reden und Lobreden, die mehr oder weniger nicht von denen zu unterscheiden sind, die von Menschen geschrieben wurden.
Die bekanntesten LLMs sind diejenigen, die von einem Unternehmen aus dem Silicon Valley entwickelt wurden OpenAI, vor allem dank der Beliebtheit seiner verbraucherorientierten Anwendung ChatGPT. Es wurde im November 2022 veröffentlicht und basiert auf dem GPT-3.5-Modell von OpenAI (Premium-Abonnenten können das noch leistungsfähigere GPT-4 verwenden).
Weitere Beispiele für LLMs sind LaMDA von google, das für Benutzer seines ChatGPT-ähnlichen Beta-Produkts Bard zugänglich ist, LLaMA von Meta und Claude von Anthropic. Microsoft hat inzwischen mehr als 10 Milliarden US-Dollar in OpenAI investiert und GPT-3.5 in seine Suchmaschine Bing integriert. Und gut kapitalisierte Start-up-Unternehmen sind dabei, LLMs für bestimmte Anwendungsfälle zu „produzieren“, unter anderem Werbetexten und die Ausarbeitung von Rechtsverträge.
Können LLMs tatsächlich menschliche Arbeitskräfte ersetzen?
Sobald ChatGPT-Benutzer nicht mehr über den Einfallsreichtum staunen, sind sie oft irritiert oder wütend über die Mängel. Unter anderem aufgrund der Benutzeroberfläche erwarten viele instinktiv, dass sie wie eine Suchmaschine funktioniert, Informationen aus einer Datenbank abruft und Ergebnisse mit einem hohen Maß an sachlicher Genauigkeit präsentiert. Aber dafür sind LLMs nicht konzipiert.
Stattdessen erzeugt der probabilistische Ansatz von GPT-3.5 häufig sogenannte „Halluzinationen“ – Faktoide, nicht existierende URLs usw erfundene akademische Referenzen die umso gefährlicher sind, weil sie so plausibel formuliert sind. Eine banalere Enttäuschung ist die Notwendigkeit, die Ausgaben von ChatGPT zu kopieren und in andere Software einzufügen, um sie nutzen zu können. Angesichts dieser Faktenprüfung und des Verwaltungsaufwands könnte man ChatGPT-Benutzern verzeihen, wenn sie Skepsis gegenüber der Idee äußern, die LLMs bereit sind 300 Millionen Arbeitsplätze ersetzen.
Dabei wird jedoch außer Acht gelassen, dass LLMs auch programmgesteuert über Anwendungsprogrammierschnittstellen (sogenannte APIs) genutzt werden können. Als Experiment haben Ankur Shah und ich eine Datenbank mit Informationen über britische Versicherungsprodukte erstellt. Anschließend haben wir eine Eingabeaufforderung für einen Artikel zur Bewertung eines Versicherungsprodukts geschrieben und ein einfaches System programmiert, um die Eingabeaufforderung mit den Produktdaten zu füllen, sie an die API von OpenAI zu senden und die Ausgabe des LLM direkt in ein Web-Content-Management-System zu übertragen.
Wir konnten Hunderte von Online-Rezensionsartikeln veröffentlichen wie dieser in weniger als einer Stunde und kostet etwa 7 US-Dollar. Die Fertigstellung desselben Projekts mit menschlichen freiberuflichen Autoren hätte mehrere Monate gedauert und etwa 70.000 US-Dollar gekostet. Darüber hinaus verhinderte die Einbeziehung realer Produktdaten in die Eingabeaufforderungen, dass das LLM falsche Deckungsgrenzen oder imaginäre Versicherungsmerkmale vortäuschte.
Wenn LLMs wie ChatGPT also richtig und mit sorgfältigen Eingabeaufforderungen eingesetzt werden, könnten sie tatsächlich die Art und Weise verändern, wie bestimmte Aufgaben erledigt werden. Angesichts dieser praktischen Erfahrung ist es plausibel, dass LLMs für Autoren Umwälzungen bedeuten werden – am deutlichsten in Bereichen wie dem Content-Marketing, wo Fachkompetenz und eine unverwechselbare Autorenstimme weniger wichtig sind als im Journalismus oder in der Belletristik.
Das Gleiche gilt für den Kundenservice. Chatbots, die auf LLMs basieren und auf domänenspezifischen Daten trainiert werden, stellen eine wesentliche Verbesserung gegenüber ihren Vorgängern dar – im Gegensatz zu einem Bot mit GPT4-Unterstützung Intercom-Finzum Beispiel mit Avivas klobiger Online-Assistent. Dieselben Bots können mit Sprach-APIs verbunden werden, was die Möglichkeit einer vollständigen Automatisierung von Contact Centern eröffnet.
Für Organisationen, die diese Systeme einführen können, würde dies erhebliche Einsparungen bei den Betriebskosten bedeuten. Für Kunden würde es ein Ende der Warteschlangen für Web-Chat oder Telefonsupport bedeuten, da KI-Systeme Hunderte von Interaktionen gleichzeitig verarbeiten können. Doch für Mitarbeiter im Kundendienst an vorderster Front dürfte die Aussicht weniger utopisch erscheinen.
Wie sieht es mit der Produktivität aus?
Diese Effizienzgewinne und Betriebskosteneinsparungen sollten sich in einigen Branchen positiv auf die Produktivität auswirken. Dies gilt insbesondere für Sektoren wie Finanzdienstleistungen, Telekommunikation, Medien und Bildung. Aber es folgt nicht unbedingt dass eine höhere sektorale Produktivität zu Produktivitätsverbesserungen in der gesamten Wirtschaft führen wird.
Tatsächlich stagniert das Produktivitätswachstum seit der globalen Finanzkrise 2007/2009 trotz der weit verbreiteten Einführung der vorherigen Generation digitaler Technologien, was die Ökonomen weiterhin verwirrt.
Abbildung 1: Output pro Arbeitnehmer, nach Land
Quelle: Feenstra et al (2015), Penn World Table (2021)
Es könnte sein, dass wir in einem gelebt haben unproduktive Blaseoder dass die meisten Unternehmen noch nicht herausgefunden haben, wie sie mobile Apps oder Big-Data-Analysen nutzen können, um deutlich produktiver zu werden.
Was auch immer der Grund sein mag, die Implikation ist, dass wir die Vorstellung, dass durch LLM ermöglichte Kosteneinsparungen zu Produktivitätsverbesserungen für die gesamte Wirtschaft führen werden, nicht als selbstverständlich ansehen sollten. Bereits 1987 witzelte der Wirtschaftsnobelpreisträger Robert Solow: „Das Computerzeitalter ist überall, außer in der Produktivitätsstatistik‚. Dasselbe könnte durchaus auch für KI gelten.
Aber Diane Coyle, eine der Hauptredakteure des Economics Observatory, schreibtDer wahre Wert von LLMs und anderen generativen KI-Systemen wird jedoch nicht darin liegen, einer kleinen Anzahl technologisch fortgeschrittener Unternehmen die Möglichkeit zu geben, ihre Kosten zu senken oder neue Produkte zu erfinden. Vielmehr wird es durch Veränderung entstehen Wie Dinge werden produziert – wie in den 1910er-Jahren Fließbänder oder in den 1980er-Jahren die Just-in-Time-Produktion.
In diesem Sinne dürfte der wichtigste Aspekt von LLMs ihre Fähigkeit zum Schreiben von Computercode sein. Das Vereinigte Königreich ist mit einem chronischen Mangel an Softwareentwicklern konfrontiert, der durch den Brexit und die Covid-19-Pandemie noch verschärft wird – im August 2022 waren es mehr als 30.000 offene Stellen in diesem Bereich. In diesem Zusammenhang könnten LLMs zwei Rollen spielen.
Erstens können sie die Produktivität heutiger Entwickler steigern und so die Qualifikationslücke teilweise schließen. Ein Hebel ist GitHub Co-Pilot, ein LLM-basiertes Tool, das manchmal als „Autovervollständigung für Code“ bezeichnet wird. Dieses Tool hat bereits mehr als eine Million Benutzer und ermöglicht Entwicklern das Schreiben von Software bis zu 55 % schneller als bisher.
Dies verblasst jedoch im Vergleich zur zweiten Möglichkeit, die darin besteht, dass eine große Anzahl von Menschen mit wenig oder keiner Programmiererfahrung anfangen könnte, LLMs zum Erstellen von Software zu verwenden. Bisher war die Hauptbeschränkung für den Bau von Computersystemen die Verfügbarkeit von Arbeitskräften mit Kenntnissen in Python, PHP, JavaScript usw.; Aber in Zukunft könnte es durchaus die Fähigkeit sein, sich vorzustellen, was ein System tun könnte, und in natürlicher Sprache anzugeben, wie es funktionieren soll.
Wenn wir glauben, dass sich LLMs tatsächlich ändern werden Wie Wenn Software produziert wird, wäre die Förderung dieser Fähigkeit durch Industrie- und Bildungspolitik ein kluger Schachzug für politische Entscheidungsträger.
Abschluss
Bei dem Versuch, die wirtschaftlichen Auswirkungen neuer Technologien zu verstehen, besteht eine der größten Herausforderungen in der verwirrenden Wirkung von Hype und „Kritik-Hype‚. Im Fall von LLMs haben Technologiemanager einen Anreiz, das von Science-Fiction beeinflusste Risiko anzusprechen, dass künstliche allgemeine Intelligenz die Menschheit auslöscht, da sie den wahrgenommenen Wert tatsächlich existierender Produkte (wie Chatbots) erhöht, die ansonsten trivial erscheinen könnten.
Gleichzeitig scheint der boomende Markt für Kommentare und Meinungen zu den sozialen und ethischen Auswirkungen generativer KI in der Wissenschaft, in Denkfabriken und in den Medien Anreize für Alarmismus zu geben.
Wie so oft ist die Realität banaler. Die wirtschaftlichen Auswirkungen von LLMs werden sich zunächst in der Erstellung von Inhalten und im Kundenservice bemerkbar machen, bevor sich die Softwareentwicklung dramatisch verändert – mit etwas Glück zugunsten einer größeren Produktivität.
Wo kann ich mehr erfahren?
Wer sind Experten für diese Frage?
Autor: Sam Gilbert
Bild von Ihar Lishchynsyn auf iStock