Es ist kaum zu glauben, dass es chatgpt erst seit November 2022 gibt. In nur wenigen Monaten ist das Aushängeschild der generativen KI überall und in allen Bereichen in die Fantasie der Menschen eingedrungen.

Wir haben KI-Verständnis und sprechen unsere Sprache fließend, und das ist faszinierend. Auch Unternehmen erkannten schnell eine glänzende Zukunft mit dieser Art von Technologie, aber waren sie zu voreilig und optimistisch?

Lassen Sie uns zunächst einen kurzen Blick unter die Haube dieser Konversationstechnologie werfen. Im Wesentlichen handelt es sich um eine Art generative KI, die auf einem Large Language Model (LLM) basiert. Aber was genau ist ein LLM?

Was sind große Sprachmodelle in der KI?

LLMs sind Algorithmen der künstlichen Intelligenz, die Texte verstehen und generieren können. Sie werden auf extrem großen Datensätzen trainiert, die Milliarden von Wörtern enthalten, um Sprachmuster zu lernen und im Gegenzug Antworten zu generieren, die natürlich klingen und für den Menschen sinnvoll sind.

Da sie mit einem derart breiten Datenspektrum vertraut sind, können sie zu fast allem Texte verfassen, allerdings nur mit breiten Pinselstrichen und ohne Spezialkenntnisse.

LLMs sind für branchenspezifische Chatbots unzureichend

Während sich LLMs wie ChatGPT perfekt für allgemeine KI-Chatbots eignen, sollten Sie bei der Verwendung für Business-Chatbots in der Kundenbindung mit Vorsicht vorgehen.

Siehe auch  So erkennen Sie ChatGPT in den Arbeiten von Studierenden: Zeichen

Sie sind der Aufgabe einfach nicht gewachsen; Beispielsweise wäre ein breit angelegter LLM-Chatbot nicht in der Lage, eine Kundenanfrage zu einer bestimmten Versicherungsklausel zu beantworten.

Es kann eine Gefahr darstellen, LLMs auf Ihre Kunden loszulassen.

Die Wahrheit ist, dass es gefährlich sein kann, LLMs auf Ihre Kunden loszulassen, da diese in 15–20 % der Fälle halluzinieren – überzeugende „Fakten“ erfinden. Dieses Maß an Ungenauigkeit macht Ihre Kunden anfällig für Fehlinformationen und schlechte Behandlung, ganz zu schweigen von den Vorschriften, die verletzt werden könnten.

Um es in den Kontext zu bringen: Kein Contact Center würde akzeptieren, dass ein Agent in 20 % der Fälle Informationen erfindet. Tatsächlich erhalten Agenten umfangreiche Schulungen zum Kundenmanagement, zur Compliance und zu Branchenkenntnissen, und KI-Chatbots müssen dieselben strengen Schulungen absolvieren, um ordnungsgemäß zu funktionieren.

Wie können wir also KI-Chatbots präzise, ​​gesprächig und zweckdienlich machen?

Die Antwort: Benutzerdefinierte Sprachmodelle

Sprachmodelle, die individuell trainiert und auf Branchendaten abgestimmt sind, können branchenbezogene Anfragen, Aufgaben und Herausforderungen mit größerer Präzision und Fachkompetenz verstehen und darauf reagieren. Diese werden Custom Language Models (CLM) genannt.

Mit einem CLM haben Sie die volle Kontrolle darüber, was mit den Daten und den Antworten der Chatbots passiert. Dazu gehört das Training des KI-Bots, um Schwachstellen bei einem Kunden zu erkennen und mit der entsprechenden Empathie und Anleitung zu reagieren.

Bei der Erörterung von CLMs Qamir Hussain, Leiter Maschinelles Lernen und KI bei Webio, sagte: „Künstliche Intelligenz ist dann am wirkungsvollsten, wenn sie genau ist. Durch diesen Ansatz bei der Erstellung von CLMs können wir spezifische Probleme in bestimmten Bereichen wirklich gut lösen.

„Künstliche Intelligenz ist dann am wirkungsvollsten, wenn sie genau ist.“

„Jede Aktion, Empfehlung oder Klassifizierung des Modells kann den Kunden erklärt werden.“

Siehe auch  Der dänische Premierminister sprengte sich in die Luft und schrieb einen Teil seiner Rede mit ChatGPT, weil er glaubte, dass KI die Entwicklung der sozialen Fähigkeiten junger Menschen behindern könnte – ezone.hk – Technology Focus – Tech Cars

Ein KI-Chatbot muss die Sprache der Branche sprechen, die er bedient

Paul Sweeney, Chief Strategy Officer bei Webioging noch einen Schritt weiter und argumentierte, dass CLMs in dem spezifischen Sektor geschult werden sollten, in dem sie eingesetzt werden:

„Der wichtige Teil von Sprachmodellen ist: Worauf werden sie trainiert und sind sie zuverlässig genug, um umgesetzt zu werden?“ Beispielsweise muss ein in einem Contact Center eingesetzter Konversations-KI-Chatbot ein intensives Training mit realen Daten und Millionen von tatsächlichen Gesprächen durchlaufen, die zwischen Agenten und Kunden stattgefunden haben (wobei aus Datenschutzgründen alle persönlichen Daten entfernt wurden).

„Damit die Konversations-KI-Chatbots vollständig automatisierte Konversationen liefern können, müssen sie in ein benutzerdefiniertes Sprachmodell mit Technologie zum Verständnis natürlicher Sprache und in APIs zur Verbindung mit Backend-Daten integriert werden.

„Man kann einen LLM nicht fragen: ‚Wie viel schuldet dieser Kunde und wie viel sollte er zurückzahlen?‘.“ Dies muss an anderer Stelle kontrolliert werden, beispielsweise in einer Datenbank oder einem CRM, um aktuelle und genaue Daten zu erhalten.“

Integrieren Sie Ethik- und Compliance-Richtlinien in CLMs

Wenn wir tiefer gehen, müssen wir die umfassenderen Auswirkungen des Einsatzes von CLMs und KI in Unternehmen berücksichtigen. Ethische KI schreibt vor, dass die Datenreise bis zum Ende überprüfbar sein muss. Sie können CLMs nicht in einer „Blackbox“ voller Unbekannter entwickeln, sondern müssen während des gesamten Prozesses Transparenz haben.

Leitplanken sind wichtig für den Schutz von Unternehmen und Kunden. Sie können beispielsweise einen Witz auf ChatGPT schreiben, Ihren KI-Chatbot aber nicht dazu bringen, einem Kunden einen Witz zu machen; oder schlimmer noch, voreingenommen oder unhöflich sein.

Siehe auch  ChatGPT mit Plugins erweitern - computerworld.ch

Die Kosten einer Halluzination sind für Unternehmen einfach zu hoch, daher müssen diese Kontrollen und Kontrollen vorhanden sein.

Was die Compliance betrifft, können Sie mit einem CLM die Nachrichten und Antworten der Chatbots steuern, um sicherzustellen, dass sie den Vorschriften wie der DSGVO und den Verbraucherpflichten entsprechen.

Wie geht es mit KI im Kundenservice weiter?

Mit Blick auf die Zukunft der Konversations-KI-Technologie sagte Sweeney: „In allen Softwareanwendungen wird ein intelligenter Assistent eingebettet sein.“

„Die KI-Automatisierung kommt genau zum richtigen Zeitpunkt für den Kundenservice.“

„Wir sehen dies bereits bei Microsofts Plänen, KI-Copiloten für seine gesamte Software einzusetzen. Insbesondere im Hinblick auf den Kundenservice werden Gespräche nicht nur für den Self-Service vollständiger automatisiert, sondern die menschlichen Agenten selbst erhalten Tipps, Hinweise und Anweisungen von einem KI-gestützten Assistenten. Manche nennen es „KI auf deiner Schulter“.

„Die KI-Automatisierung kommt für den Kundendienstbereich genau zum richtigen Zeitpunkt. Diese maßgeschneiderten Sprachmodelle bieten Unternehmen ein konsistentes und zielgerichtetes, gesprächsorientiertes Kundenservice-Tool mit der zusätzlichen Fachkenntnis und Genauigkeit spezialisierter Branchendaten.

„Durch das Verstehen und Sprechen der Sprache einer bestimmten Branche ermöglichen diese Modelle die Art von Kundeninteraktionen, die jedes Unternehmen anstrebt.“

Anzeige
Nina Weber
Nina Weber is a renowned Journalist, who worked for many German Newspaper's Tech coloumns like Die Zukunft, Handelsblatt. She is a contributing Journalist for futuriq.de. She works as a editor also as a fact checker for futuriq.de. Her Bachelor degree in Humanties with Major in Digital Anthropology gave her a solid background for journalism. Know more about her here.

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein