[ad_1]
David Walker ist sich bewusst, dass große Sprachmodelle wie chatgpt, das im gesamten Internet trainiert wurde, dies können halluzinieren. Sie können sogar historische Ereignisse nachbilden, die nie stattgefunden haben.
„Sie können lügen, sie können Informationen erfinden“, sagte Walker, der Chief Technology Officer von Westpac, in einem Interview. „Sie sind unglaublich mächtig.“
Die Bank mit Sitz in Sydney und mehr als 12 Millionen Kunden kann es sich nicht leisten, dass eine öffentliche Version von ChatGPT Antworten für Kunden oder Mitarbeiter, die einen virtuellen Assistenten nutzen, erfindet oder halluziniert. GPT-Modelle (Generative Pre-Trained Transformer) sind künstliche neuronale Netze, die anhand großer Datensätze unbeschrifteten Textes vorab trainiert werden und in der Lage sind, menschenähnliche Inhalte zu generieren.
Aber Walker möchte Mitarbeitern und Kunden das ChatGPT-Erlebnis menschlicher Antworten auf ihre Fragen bieten – wenn dies sicher und mit der Gewissheit erfolgen kann, dass die Antworten korrekt sind.
Die Bank arbeitet mit Kasisto zusammen, um ihr Kai-GPT zu testen, ein großes Sprachmodell, das nur auf Konversationen und Daten in der Bankenbranche trainiert wird.
„Halluzinationen in öffentlichen KI-Modellen sind unvermeidlich und können ziemlich schlimm werden“, sagte Zor Gorelov, CEO von Kasisto, in einem Interview. Aus diesem Grund benötigen Banking-GPTs Genauigkeit, Transparenz, Vertrauen und Anpassbarkeit, sagte er.
Dies ist auch der Grund, warum Banken wie Westpac sich auf interne Anwendungsfälle für generative KI konzentrieren werden – und diese an Frontline-Banker, Contact-Center-Agenten und Hypothekenmitarbeiter weitergeben, sagte Gorelov. Westpac werde Kai-GPT auf seinen proprietären Inhalten trainieren und dadurch das Risiko einer Halluzination des Systems drastisch reduzieren, sagte Gorelov.
Walker hofft, Kunden und Mitarbeitern umfassendere und verständlichere Hilfestellung bieten zu können, beispielsweise bei der Hypothekenvergabe.
„Wenn Menschen einen Wohnungsbaukredit beantragen, müssen sie viele Formulare ausfüllen“, sagte Walker. „Wir müssen wissen, wer Sie sind, wir müssen alles Mögliche über Sie wissen. Dies wird uns dabei helfen, die Qualität der eingehenden Informationen zu überprüfen, sodass wir nicht ständig zu unseren Kunden hin und her gehen müssen.“ . Es wird den Prozess rationalisieren. Es wird unseren Kunden helfen, es wird unseren Kreditmitarbeitern helfen und es wird die Dinge viel direkter und reibungsloser machen.“
Laut Peter Wannemacher, Chefanalyst für Digital Banking bei Forrester, werden in den nächsten zwei Jahren wahrscheinlich auch andere Banken ähnliche Experimente durchführen.
„Spezialtools, die auf einem großen Sprachmodell basieren, werden von Anbietern, traditionellen Finanzinstituten und Fintechs auf den Markt gebracht“, sagte Wannemacher. „Die meisten traditionellen Finanzinstitute werden sich zunächst auf mitarbeiterorientierte generative Tools konzentrieren, anstatt dem Endbenutzer einen Chatbot direkt zur Verfügung zu stellen, der auf einem großen Sprachmodell basiert.“
Er glaubt aber auch, dass die Banken vorsichtig vorgehen werden.
„Große Sprachmodelle sind plötzlich sowohl besser als auch weit verbreitet, aber sie scheitern immer noch spektakulär und können sogar völlig falsche, sogar betrügerische Ergebnisse erzeugen“, sagte Wannemacher. „Geld ist ein hochsensibler Bereich im Leben der Menschen, und traditionelle Banken werden sich zu Recht dagegen sträuben, irgendetwas mit Kundenkontakt einzuführen, bis sie ein viel besseres Gespür dafür haben, was schief gehen kann und wie man dagegen vorgeht.“
Um zu verhindern, dass Kai-GPT eine Frage auf der Grundlage von Informationen einer anderen Bank beantwortet, die nicht zu Westpac gehören, verwendet Walker das, was er Layering nennt. Eine Schicht des Modells wird anhand von Daten und Gesprächen vieler Banken trainiert. Eine weitere Ebene wird anhand von Westpac-spezifischen Informationen geschult, beispielsweise den Richtliniendokumenten, Formularen und Websites sowie Aufzeichnungen von Gesprächen in den Kontaktzentren der Bank.
„Um die Absicht der Frage herauszufinden, wird es bei der Formulierung einer Antwort auf diese Branchenschicht zurückgreifen“, sagte Walker. „Es verfügt über das Wissen aus all diesen Gesprächen von all diesen Banken und wird deshalb intelligenter sein. Aber es wird noch tiefer in das Westpac-spezifische Modell eintauchen, wenn es um die Bedingungen eines Wohnungsbaudarlehens oder eines anderen geht.“ Einlagenzinssatz. Diese Ebenen arbeiten zusammen, um diese wirklich reichhaltigen, wunderbaren Antworten zu formulieren, aber auf genaue und prägnante Weise.“
Die Verwendung möglichst vieler Daten verleiht den Antworten eine Fülle und Präzision, sagte Walker: „Es geht immer noch darum herauszufinden, worauf man trainieren möchte und welches Wissen die GPT-Engine verstehen muss.“
Die Bank geht vorerst langsam vor, um sicherzustellen, dass die neue Technologie in ihre verantwortungsvolle KI-Richtlinie und „wie wir ethisch über den Schutz unserer Mitarbeiter und unserer Kunden denken“ passt, sagte Walker. „Wir wollen sicherstellen, dass wir nicht zu schnell voranrennen und etwas rauswerfen, das Schaden anrichten könnte. Bei uns gilt der Grundsatz ‚keinen Schaden anrichten‘.“ Es ist irgendwie grundlegend.“
Die erste Inbetriebnahme von Kai-GPT bei Westpac erfolgt im Hypothekengeschäft. In den nächsten Monaten wird die Bank den Einsatz der Technologie im Kreditantragsprozess erproben, um den Kreditnehmern zu zeigen, welche Formulare sie verwenden sollten und welche Informationen die Bank erhalten muss, was dazu beitragen dürfte, den Prozess für die Bank zu beschleunigen.
Sobald Walkers Team von der Fähigkeit von Kai-GPT überzeugt ist, Mitarbeitern und Kunden zu helfen und keinen Schaden anzurichten, glaubt er, dass er es schnell auf andere Bereiche der Bank übertragen kann.
Der Hauptvorteil eines großen Sprachmodells gegenüber früheren Generationen von Chatbots, die bei Westpac verwendet werden, ist die Vielfalt der Antworten, die es liefern kann, sagte Walker.
„Es liefert eine Antwort auf eine Art und Weise, die eher so ist, als würde ein Mensch mit einem Menschen sprechen, sodass Kunden oder Mitarbeiter das Gefühl haben, die Informationen zu erhalten, die sie brauchen, und nicht nur scharfe Einzeiler“, sagte er. „Wir glauben, dass dies ein echter Game Changer ist, wenn es um die nächste Generation der Arbeit mit künstlicher Intelligenz geht.“
Westpac nutzt bereits die Kai-Software von Kasisto als Orchestrator für andere Chatbots Die Bank setzt sie in Bereichen wie Servicemanagement, Personalwesen und Risikomanagement ein. Wenn sich ein Mitarbeiter nicht erinnern kann, an welchen Bot er sich wenden soll, um Informationen einzuholen, kann er sich an den Orchestrator wenden und an den richtigen Chatbot weitergeleitet werden.
„Wir dachten, dass dies eine sehr wirkungsvolle Möglichkeit sei, Gespräche zu führen, und wir fanden das wirklich nützlich“, sagte Walker. „Es ist ein One-Stop-Shop-Einstiegspunkt.“
Kai-GPT wurde anhand von Kasistos eigenen Daten, Daten von anderen Banken, mit denen Kasisto zusammenarbeitet, sowie Informationen aus Finanzwebsites, SEC-Einreichungen und anderen Quellen geschult.
„Unser Ziel ist es, das beste große Sprachmodell der Welt für Bank- und Finanzdienstleistungen zu schaffen und das zu erreichen, was wir künstliche Finanzintelligenz nennen“, sagte Gorelov. „Unsere Aufgabe besteht darin, unseren Kunden jeder Größe dabei zu helfen, das leistungsstärkste große Sprachmodell zu erhalten, das für das Bankwesen konzipiert und gebaut wurde, genaue Antworten liefert und mehr über Bankgeschäfte weiß als die meisten Banker.“
Kai-GPT sei transparent, sagte Gorelov, was die für seine Schulung verwendeten Daten und Methoden betreffe.
„Es ist vertrauenswürdig, weil wir in den letzten zehn Jahren mit Banken zusammengearbeitet haben“, sagte er. „Wir wissen, wie präzise sie sind und wie anspruchsvoll sie sind, wenn es um personenbezogene Daten und geschützte Inhalte geht.“
Das Programm ist außerdem anpassbar, sodass Banken ihre eigenen Inhalte einfügen und diese besser auf ihre eigenen Datensätze anwenden können.
Je größer der Datensatz und je mehr Fragen ein großes Sprachmodell beantworten kann, desto wichtiger und schwieriger wird es, Leitplanken durchzusetzen.
„Die Welt hat sich von der präskriptiven KI, bei der jede Absicht und jede Reaktion manuell entworfen werden musste, zur generativen KI entwickelt, bei der man nicht mehr die Frage jedes Benutzers antizipieren und das Modell neu trainieren muss, wenn etwas Neues auftaucht“, sagte Gorelov. „Es ist eine andere Welt, in der wir leben, und wir sind sehr gespannt darauf. Aber Leitplanken und der KI-Schutz, Transparenz und Sichtbarkeit von Quellen – diese Themen werden immer wichtiger.“
[ad_2]