Ein Konferenzraum war voll mit Softwareentwicklern, Forschern und Unternehmern, die mehr über das aufstrebende Gebiet der generativen künstlichen Intelligenz (KI) erfahren wollten, einschließlich seiner Ursprünge, Entwicklungen zu Chatbots auf der Grundlage großer Sprachmodelle (LLM) und damit verbundener Anwendungen wie Computer Vision (Lebenslauf).
Gastgeber der Veranstaltung war Galaxy Software Services (GSS), ein außerbörslich (6752-TE) notiertes Unternehmen, das mehr als 2.000 Unternehmen betreut, von Finanzdienstleistern bis hin zu Regierungsbehörden, Krankenhäusern und Telekommunikationsanbietern. Das Unternehmen bietet Software an, die Organisationen dabei hilft, ihre Dienste zu automatisieren und so die Personalkosten und sogar die Buchführung zu senken.
Die Betreuung so vieler Kunden bedeutet, dass GSS einen großen Anteil an der Entwicklung der KI hat und eines der Unternehmen ist, die diese technologische Revolution in Taiwan vorantreiben. Die Ausrichtung eines jährlichen Forums für Kunden und Stakeholder ist nur eine Möglichkeit, wie das Unternehmen die neuesten Chancen und Herausforderungen im Bereich der KI anspricht.
Der erste Redner, der auf dem Forum sprach, war Perry Chang (張培鏞), Vorsitzender von Galaxy Software Services (GSS), der sich für die Schaffung eines indigenen LLM zum Wohle der Nation einsetzt. Chang erklärte, dass sein ursprüngliches Interesse auf diesem Gebiet darin bestand, eine einfache chinesische Grammatik- und „Rechtschreibprüfungsfunktion“ zu entwickeln, die denen entspricht, die im Englischen weit verbreitet sind.
Sein Vorstoß in dieses Feld erwies sich als schwieriger als gedacht, und nachdem er die ersten Mittel aufgebraucht hatte, gab er auf. Jahre später kam ein Kollege erneut auf ihn zu und ermutigte ihn, diese Aufgabe erneut anzunehmen, diesmal jedoch mithilfe von maschinellem Lernen (ML). Nach einem Neuanfang im Jahr 2013 war er letztendlich erfolgreich und erhielt die Werkzeuge und Erfahrungen, um den Weg der Verarbeitung natürlicher Sprache (NLP) einzuschlagen, einem Bereich der KI, der sich der Schnittstelle zwischen Computer und menschlicher Sprache widmet.
Zu Beginn nutzte sein Unternehmen für viele seiner Softwareanwendungen die rudimentäre optische Zeichenerkennung (OCR). „Wenn Sie beispielsweise ein Poster hätten, würden wir den Computer trainieren, voreingestellte Stellen auf dem Poster zu untersuchen, um die Daten zu lesen“, sagte Chang. Er fügte hinzu, dass sich seit den Anfängen des NLP viel verändert habe, als Computer darauf trainiert wurden, an einer vorgeschriebenen Stelle nach bestimmten Zeichen oder Symbolen zu suchen.
Der Aufstieg von Messaging als Mittel zur Kommunikation mit Freunden und Unternehmen eröffnete eine Geschäftsmöglichkeit für Unternehmen wie GSS, das 2017 schnell seinen ersten Chatbot auf den Markt brachte. Frühe Versionen dieser Chatbots waren recht begrenzt und reagierten nur auf eine Reihe von Anfragen voreingestellte Stichworte, die eine automatisierte Reaktion auslösen könnten.
Zu Beginn nutzten Chatbots nur die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), die weitgehend unstrukturiert und umständlich war und sich auf Stichworte und vorgefertigte Antworten beschränkte. Mit der Einführung von KI könnten durch Chatbots eine größere Genauigkeit und bessere prädiktive Antworten erreicht werden. Um die Qualität von Chatbots weiter zu verbessern, wäre außerdem eine größere Datenbank oder ein größerer Satz von Warteschlangen und Eingabeaufforderungen erforderlich, die allgemein oft als große Sprachmodelle (LLM) bezeichnet werden.
„Taiwan muss ein einheimisches LLM schaffen, das traditionelle chinesische Schriftzeichen liest, Taiwans kulturelles Erbe versteht, die Vertraulichkeit der Daten gewährleistet und dessen Kosten überschaubar sind“, sagte Chang. Er fügte hinzu, dass GSS seit 2013 stark in maschinelles Lernen, NLP und später in Visual Document Understanding (VDU) investiert habe.
„Ein Durchbruch gelang mit der Präsenz des chatgpt im Jahr 2022“, sagte Chang. „Wir sehen Herausforderungen, aber auch mehr Chancen, und wir freuen uns, unsere langjährigen Bemühungen im KI-Bereich auf die nächste Stufe zu bringen, indem wir das LLM verfeinern, um maßgeschneiderte KI-Lösungen zu entwickeln, um die Schwachstellen unserer Kunden aus der Regierung zu lösen.“ Agenturen, Logistik bis hin zu Gesundheitsdienstleistern“, sagte Chang auf dem Forum.
Die Konvergenz von Chatbots und KI, die Ende 2022 ChatGPT hervorgebracht hat, wird GSS voraussichtlich noch mehr Möglichkeiten und Herausforderungen mit sich bringen, die es zu erkunden gilt. Aufgrund der umfassenden Implementierungserfahrung des Unternehmens kann es innovative LLM-Funktionen gepaart mit KI schnell testen und klären, um der Marktnachfrage gerecht zu werden.
Entwicklung eines einheimischen LLM für Taiwan
Fortschritte in der KI im Bereich LLM erfordern eine große und genaue Datenbank, auf die Computer zurückgreifen können. Natürlich sind die Genauigkeit und Integrität dieser Datenbanken für effektive KI-Anwendungen von entscheidender Bedeutung. Angesichts der Vielfalt der Sprachen auf der ganzen Welt sind unterschiedliche Datenbanken erforderlich, um die Wirksamkeit von LLM zu steigern.
Chang glaubt, dass es für Taiwan von wesentlicher Bedeutung ist, ein eigenes LLM zu entwickeln, das besser auf die Bedürfnisse seines öffentlichen und privaten Sektors eingehen kann. Er sagte, es handele sich um ein geschlossenes System, das sensible Daten und andere persönliche Informationen vor dem Missbrauch durch böswillige Akteure im In- und Ausland schützen würde.
Das Thema einer sicheren Datenbank für LLM war das Thema der nächsten Rednerin des Forums, Jane Hsu (許永真), Vorsitzende der Abteilung für Informatik und Informationstechnik der National Taiwan University. In den letzten Jahren hat sie die Trustworthy AI Dialogue Engine (TAIDE) entwickelt, die sich der Zusammenstellung taiwanspezifischer Informationen zu Sprache, Kultur und Geschichte widmet.
„Klassisches maschinelles Lernen benötigt eine große Menge an Daten und gekennzeichneten Daten, um effektiv zu sein. Aber mit GPT (Generative Pre-Trained Transformers), einer Art großem Sprachmodell, haben wir enorme Fortschritte gemacht; Wir können jetzt das nächste Wort durch Vorhersagefähigkeiten und sogar Eingabesätze erraten. Wir verfügen sogar über Tools zur Zusammenfassung von Texten“, sagte Hsu.
Doch all diese Technologie hat ihren Preis, da die Zahl der Prozessoren für KI-Berechnungen exponentiell gestiegen ist, was zu höheren Kosten und einem höheren Personalbedarf führt. Hsu beklagte, dass Taiwan Schwierigkeiten habe, mit internationalen Trends und Innovationen Schritt zu halten, und forderte die Regierung auf, die Mittel schnell aufzustocken.
Die Veröffentlichung des Taiwan AI Action Plan 2.0 war für Hsu und seine Kollegen sowohl ein Segen als auch ein Fluch. Einerseits erhöht eine größere Aufmerksamkeit der Regierung die Möglichkeit für mehr Mittel, aber eine stärkere Kontrolle öffnet auch die Tür für mehr Kontrolle und die Forderung nach Fortschritten.
„Wir haben jetzt eine nationale KI-Entwicklungsstrategie. Derzeit liegt der Schwerpunkt auf der Entwicklung von TAIDE. Wir können Chat GPT einfach nicht bitten, alles zu tun, weil wir sonst das Risiko von Datenverzerrungen, Vertrauenswürdigkeit, Normen und Cybersicherheitsproblemen eingehen würden, um Unternehmen und Kundeninformationen zu schützen“, sagte Hsu.
Auf einer breiteren Ebene trägt die Entwicklung von Datenbanken wie TAIDE sowie inländischen KI-Fähigkeiten dazu bei, taiwanesische Talente in diesem Bereich zu fördern. „Wir arbeiten an einer Mischung indigener Sprachen und der Verwendung chinesischer Schriftzeichen, da Taiwan über eine eigene einzigartige Sprachlandschaft verfügt“, sagte Hsu.
Hsu glaubt, dass die KI einen „Oppenheimer“-Moment erreicht, in dem uns jede Erfindung einer Art Eskalation der Technologie oder einem virtuellen Wettrüsten um mehr Macht und Überlegenheit näher bringt. Dies wiederum wird eine Belastung für das Personal, die Finanzierung und die Rechenkapazitäten darstellen.
Trotz der Herausforderungen besteht eindeutig die Notwendigkeit, TAIDE als vertrauenswürdiges Basismodell zu entwickeln, das LLM-Transformatoren oder Tokenizer wie LLaMa nutzen kann. „Es gibt viele Herausforderungen bei der Bereitstellung von Anweisungen, der Feinabstimmung und der Suche nach qualitativ hochwertigen Daten und parallelen Bemühungen“, sagte Hsu.