[ad_1]
Verbraucher könnten gerne ChatGPT von OpenAI oder Bard von google fragen, wie sie einen Bonusscheck ausgeben sollen. Wenn man den meisten Bank-Chatbots dieselbe Frage stellt, erhält man möglicherweise nicht so einfach eine Antwort.
Laut einer Studie, die das Forschungsunternehmen Corporate Insight exklusiv mit American Banker geteilt hat, bleiben die meisten Bank-Chatbots weit hinter dem zurück, was generative KI-gestützte Assistenten wie ChatGPT oder Bard leisten können. Diese Erkenntnis, so schlägt das Unternehmen vor, sollte Banken beunruhigen, die bestrebt sind, die sich verändernden Kundenerwartungen zu erfüllen, um ihren Mitbewerbern einen Schritt voraus zu sein.
„Der durchschnittliche Branchen-Chatbot ist nicht anspruchsvoll [handles] wirklich grundlegende Aufgaben, grundlegende Kontoführung“, sagte Grant Easterbrook, Berater bei Corporate Insight und einer der Autoren der Studie. ChatGPT und Bard können noch weiter gehen, indem sie in der Lage sind, Finanzkonzepte zu erklären und Kenntnisse über Durchschnittswerte und Trends in einer Branche zu gewinnen Chatbots können das nicht, fügte er hinzu.
Testen der Chatbots gegen ChatGPT und Bard
Diesen Sommer testete Corporate Insight ChatGPT (die GPT-4-Version), Bard und sechs Chatbots, die von führenden Finanzdienstleistungsunternehmen angeboten werden, darunter Bank of America, JPMorgan Chase, Charles Schwab, Capital One, Fidelity und US Bank. Das Unternehmen stellte jedem Assistenten – sowie ChatGPT und Bard – mehr als 100 Fragen, darunter Bitten um Erläuterungen zu Finanzkonzepten sowie Fragen zur Planung und Budgetierung.
Da Banken noch keine Kundenkontodaten öffentlich zugänglichen generativen KI-Assistenten zur Verfügung stellen, war der Vergleich nicht immer gleich, aber es war möglich, die Kontoaufgaben anzunähern, indem man ChatGPT oder Bard fragte, wie man etwas macht, während man eine bestimmte Institution erwähnte Name, sagte Easterbrook. Ein Beispiel wäre: „Wie finde ich Kontobenachrichtigungen auf der Website der Bank of America?“
Die Möglichkeiten variierten je nach Bank, aber insgesamt waren Chatbots der Branche in der Lage, grundlegende Kontofragen und -aufgaben zu bewältigen, darunter das Ersetzen verlorener Karten, das Durchführen von Geldüberweisungen und das Abrufen von Kontoinformationen und Fragen im Zusammenhang mit der Website- oder App-Navigation, so die Studie. Bestimmte Bank-Chatbots, die aufgefordert wurden, „relativ unkomplizierte Datenabrufe“ durchzuführen, führten häufig zu Fehlern. Dazu gehörten beispielsweise Fälle, in denen sie gefragt wurden, wie viel Dividende der Kunde erhalten hatte oder was seine letzten fünf Geschäfte waren.
Nur wenige Branchen-Chatbots könnten Informationen oder Kontoverwaltungsanfragen innerhalb des Chatfensters bearbeiten.
„Bei den meisten Chatbots der Branche stellen Sie derzeit eine Frage und erhalten lediglich einen Link zu der Seite, auf der Sie sie bearbeiten können“, sagte Easterbrook. „Wir fangen an, ein paar Chatbots zu sehen, die Dinge tun, wie zum Beispiel die Durchführung einer Überweisung innerhalb des Chats oder die Möglichkeit, eine Karte innerhalb des Chats zu sperren, weil der Chat eigentlich ein Assistent ist und nicht so etwas wie ein Link-Tool.“ „
Erica von der Bank of America war beispielsweise in der Lage, Serviceanfragen innerhalb des Chatfensters zu bearbeiten und Visualisierungen und Daten im Chat durchzuführen. Mittlerweile konnte der Chatbot von Fidelity problemlos zwischen verschiedenen Kontotypen navigieren.
Der Vorsprung der generativen KI bei der Finanzberatung
Bank-Chatbots waren nicht in der Lage, Fragen zu beantworten, die das Abrufen und Analysieren von Daten aus externen Quellen erforderten, wodurch ihre Möglichkeiten zur Beantwortung von Fragen zu Finanzkonzepten oder Anfragen, die eine maßgeschneiderte Beratung auf der Grundlage der allgemeinen Finanzsituation eines Kunden erforderten, eingeschränkt waren.
ChatGPT konnte beispielsweise eine detaillierte Antwort auf die Frage geben, wie viel der durchschnittliche Amerikaner pro Jahr für die Kfz-Versicherung zahlt. Generative KI-Tools zeichneten sich auch bei Aufgaben aus, die eine Art Benchmarking erfordern. Als Antwort auf die Frage, wie ein Nutzer angesichts der durchschnittlichen Ausgaben pro Einwohner in einer bestimmten Stadt weniger für Essen ausgeben kann, konnte Bard maßgeschneiderte Ratschläge zur Budgetierung geben.
Generative KI-Assistenten waren auch in der Lage, Anfragen zu bearbeiten, die informelle Sprache verwendeten oder Rechtschreibfehler aufwiesen, und erkannten alle Testfragen von Corporate Insight, die bewusst Slang und informelle Sprache verwendeten. Unter den getesteten Branchen-Chatbots erkannte keiner alle Testfragen mit informeller Sprache, Fehlern oder Slang.
„Wenn man über die Art und Weise nachdenkt, wie Chatbot-Erlebnisse heutzutage existieren, sind die meisten von ihnen sehr auf die Beantwortung einfacher Fragen konzentriert. Die meisten von ihnen basieren wahrscheinlich ziemlich auf Regeln“, sagte Tiffani Montez, Chefanalystin bei Insider Intelligence. „Wenn man über generative KI nachdenkt, liegt der Grund dafür, dass sie Konzepte besser erklären kann, darin, dass sie konversationsorientiert ist“, wobei ein großsprachiges Modell einen breiteren Informationsschatz aufnimmt und analysiert.
Die Straße entlang
Für Banken ist die Datenhygiene eine der größten Hürden bei der Einführung generativer KI in ihre Chatbot-Erlebnisse, sagte Montez.
„Wie konsolidieren Sie alles, was Sie über einen Verbraucher wissen, sei es in Ihrem Aufzeichnungssystem zu seinen Transaktionen oder zu Dokumenten, die Sie möglicherweise mit ihm geteilt haben, oder zu Interaktionen, die Sie mit ihm hatten?“ Sie sagte.
Bevor sie solche Tools für Benutzer bereitstellen, müssen Banken auch herausfinden, wie sie verhindern können, dass für einen bestimmten Anwendungsfall autorisierte Kundendaten nicht versehentlich ohne Zustimmung des Benutzers an anderer Stelle verwendet werden, sagte Jacob Morgan, Chefanalyst bei Forrester Research.
Aus diesen und anderen Gründen ist die Ära der generativen KI-Funktionen im ChatGPT-Stil, die in die Mobile-Banking-Apps von Einzelpersonen eingebettet sind, nach Ansicht einiger noch weit entfernt.
„Es ist sehr spannend. Die Möglichkeiten im Service und möglicherweise auch in der Beratung sind endlos, aber [it’s] „Aufgrund der Sensibilität des Bereichs, in dem wir tätig sind, sind wir nicht so sehr für die Hauptsendezeit bereit, wie dies möglicherweise in anderen Sektoren der Fall wäre“, sagte Foteini Agrafioti, Chief Science Officer bei der Royal Bank of Canada und Leiter von Borealis AI, dem engagierten Unternehmen der Bank KI-Forschungszentrum.
RBC brachte den KI-Assistenten Nomi erstmals im Jahr 2017 auf den Markt. Nomi bietet Kunden Kontoinformationen und Einblicke in die persönlichen Finanzen. Ask Nomi, ein In-App-Chatbot, kann grundlegende Fragen zu Ihrem Konto beantworten.
Die mobile RBC-App bietet auch asynchronen Chat mit menschlichen Beratern.
Im Bereich generative KI testet RBC, wie sie Mitarbeitern dabei helfen kann, Kunden zu unterstützen. Zu diesem Zweck entwickelt RBC Anwendungen mit großen Sprachmodellen, um Bankmitarbeiter zu unterstützen, die zur Kundenberatung eine Vielzahl von Richtlinien und Verfahren konsultieren müssen. Dieses Angebot befindet sich derzeit in der Machbarkeitsstudie und wird noch in diesem Jahr eingeführt, sagte Agrafioti.
„Wir setzen dies gerade ein, um durch Richtlinien und Verfahren zu navigieren, damit die Leute diesen Datenbestand abfragen und sehr schnell zur richtigen Antwort gelangen können“, sagte sie. „Wir finden, dass dies ein guter, solider erster Schritt in Richtung Kundenbetreuung ist, weil es uns die menschliche Aufsicht ermöglicht, und das ist für uns sehr, sehr wichtig.“
Zusätzlich zu den Kundenbetreuungsbemühungen habe die Bank auch interne Modelle für große Transaktionen entwickelt, mit denen Vorhersagen für eine Reihe von Produkten und Dienstleistungen getroffen werden könnten, darunter Betrugserkennung, Risikomodellierung und Servicepersonalisierung, sagte sie.
Auf die Frage, wann generative KI-Tools in die Hände der Verbraucher gelangen würden, sagte Agrafioti, der Zeitpunkt hänge von der Bewältigung einer Reihe von Herausforderungen ab.
„Wir müssen nur sicherstellen, dass es unseren Sicherheitsstandards entspricht, und vielleicht ist die Antwort, dass es eine Zeile gibt, die besagt: ‚Bei solchen Interaktionen fühlen wir uns wohl, aber wenn es darum geht, werden wir das niemals hergeben.‘ an einen autonomen Agenten übergeben“, sagte sie. „Wir versuchen herauszufinden, wo diese Linie ist.“
[ad_2]