Wells Fargo CIO: KI und maschinelles Lernen bringen die Finanzdienstleistungsbranche voran

Wir freuen uns, Transform 2022 vom 19. Juli, effektiv vom 20. bis 28. Juli, persönlich zurückzubringen. Schließen Sie sich einem KI- und Datenführer an, um aufschlussreiche Gespräche und spannende Networking-Möglichkeiten zu erhalten. Registrieren Sie sich heute!


Es ist einfach. Bei Finanzdienstleistungen bieten Kundendaten die relevantesten Dienstleistungen und Ratschläge.

Menschen nutzen jedoch häufig unterschiedliche Finanzinstitute basierend auf ihren Bedürfnissen. Andere Kreditkarte. Ihre Investitionen, Sparkonten und Girokonten sind noch ein weiterer.

Und die Finanzbranche ist berühmter für ihre Isolation von Finanzinstituten als jede andere Branche. Die Branche ist so wettbewerbsorientiert und stark reguliert, dass es für Institutionen keinen großen Anreiz gab, Daten auszutauschen, im Ökosystem zusammenzuarbeiten oder zusammenzuarbeiten.

Da Kundendaten deterministisch sind (d. h. auf Quellen aus der ersten Person beruhen), wissen Finanzinstitute genau, was ihre Bedürfnisse sind, wenn sie „über mehrere Parteien hinweg leben.“ Nein, sagte Chintan Mehta, CIO und Head of Digital. Technologie und Innovation von Wells Fargo.

„Fragmentierte Daten sind tatsächlich schädlich“, sagte er. “Wie löst die Branche das Ganze?”

Mehta und sein Team setzen konsequent auf Initiativen für künstliche Intelligenz (KI) und maschinelles Lernen (ML), um den Betrieb zu beschleunigen und Dienstleistungen zu rationalisieren, und befürworten Wege, um diese Herausforderung der Kundendaten zu lösen und das Kundenerlebnis zu verbessern.

„Das ist hier kein Hexenwerk, aber die Herausforderung besteht darin, die Bedürfnisse des Kunden richtig zu erfassen“, sagte Mehta. “Wie bekomme ich eigentlich das komplette Kundenprofil?”

Verschiedene KI-Initiativen für Finanzdienstleistungen

Mit 170 Jahren multinationaler Finanzdienstleistungsgiganten, die in einer geschätzten 22,5-Billionen-Dollar-Industrie, etwa einem Viertel der Weltwirtschaft, konkurrieren, hat sich Mehtas Team mit intelligentem Content-Management, Robotik und intelligenter Automatisierung zusammengetan, Distributed-Ledger-Technologie, fortschrittlicher KI und Quanten Initiativen. Rechnen.

Mehta leitet auch Forschungspartnerschaften in der Wissenschaft und Industrie von Wells Fargo, darunter das Stanford Institute for Human-Centered Artificial Intelligence (HAI), das Stanford Platform Lab und das MIT-IBM Watson Artificial Intelligence Lab.

Mehtas Team verlässt sich bei seiner Arbeit auf eine Vielzahl von KI- und ML-Tools. Traditionelle statistische Modelle, Deep-Learning-Netzwerke, logistische Regressionstests (verwendet für Klassifizierung und prädiktive Analytik). Wenden Sie verschiedene Cloud-native Plattformen wie Google und Azure sowie selbst entwickelte Systeme (basierend auf der Datenlokalität) an.

Eine Technik, die sie anwenden, ist das Langzeit- und Kurzzeitgedächtnis, sagte Mehta. Dieses wiederkehrende neuronale Netzwerk verwendet einen einzelnen Datenpunkt und eine Rückkopplungsverbindung, die die gesamte Datenfolge verarbeiten kann. Sein Team wendet das Langzeit- und Kurzzeitgedächtnis auf die Verarbeitung natürlicher Sprache (NLP) und das Verständnis der gesprochenen Sprache an, um die Absicht aus der Formulierung zu extrahieren. Ein Beispiel ist das Beschwerdemanagement, das „spezifische gezielte Zusammenfassungen“ aus Beschwerden extrahiert, um die beste Vorgehensweise zu bestimmen und sie voranzutreiben, erklärte Mehta. Die NLP-Technik gilt auch für Website-Formularanfragen, die mehr Kontext haben als Dropdown-Menüvorschläge.

Für die grundlegende Bild- und Zeichenerkennung werden traditionelle Deep-Learning-Techniken wie Feedforward-Neuronale Netze angewendet, bei denen Informationen in nur einer Schleife fortschreiten. In der Zwischenzeit werden Deep-Learning-Techniken wie Convolutional Neural Networks (die speziell für die Verarbeitung von Pixeldaten entwickelt wurden) zur Analyse von Dokumenten verwendet, sagte Mehta.

Letztere stellt bestimmte Aspekte der eingereichten gescannten Dokumente bereit und analysiert die Bilder in diesen Dokumenten, damit sie vollständig sind und die erwarteten Attribute, Inhalte und Kommentare enthalten. (Zum Beispiel erwarten bestimmte Arten von Dokumenten, wie z. B. Girokontoauszüge, sechs Attribute basierend auf der bereitgestellten Eingabe, aber nur vier werden erkannt, wodurch das Dokument gewarnt wird. Dies hilft, verschiedene Prozesse zu rationalisieren und zu beschleunigen. , sagte Meta.

In zukünftigen Initiativen wird das Team den Serverless-Computing-Service AWS Lamba nutzen, um das Transformers Neural Network-Modell anzuwenden. Es wird verwendet, um sequentielle Daten wie Texte in natürlicher Sprache, genomische Sequenzen, Audiosignale und Zeitreihendaten zu verarbeiten. Mehta plant auch, zunehmend die Random Forest ML-Pipeline zu integrieren, eine überwachte Lerntechnik, die mehrere Entscheidungsbäume für Klassifizierung, Regression und andere Aufgaben verwendet.

„Dies ist der Bereich, der die meisten Finanzinstitute transferiert“, sagte Mehta.

Optimierung, Beschleunigung, innerhalb der Vorschriften,

Eine der größten Herausforderungen für Mehta und sein Team ist die beschleunigte Einführung von KI und ML in einer stark regulierten Branche.

„Wenn Sie in einer nicht regulierten Branche tätig sind, dauert es relativ kurz, einen Datensatz mit Funktionen vorzubereiten, darauf ein Modell zu erstellen und es in der Produktion bereitzustellen“, sagte Mehta.

Regulierte Branchen hingegen erfordern in allen Phasen eine externe Risikobewertung und interne Validierung.

“Wenn möglich, werden wir uns auf statistische Modelle konzentrieren. Beim Aufbau groß angelegter, auf neuronalen Netzwerken basierender Lösungen gibt es viele Prüfungen.”

Er sagte, dass drei unabhängige Gruppen die Modelle überprüfen und hinterfragen würden – eine unabhängige Front-Line-Risikogruppe, eine Modellrisiko-Governance-Gruppe und eine Prüfungsgruppe. Diese Gruppen erstellen separate Modelle, um unabhängige Datenquellen zu erstellen. Wenden Sie einen Nachprozess an, um die Ergebnisse experimenteller Daten zu analysieren. Stellen Sie sicher, dass der Datensatz und das Modell im “geeigneten Bereich” liegen. Und wenden Sie die Techniken an, um sie herauszufordern.

Mehtas Team setzt durchschnittlich 50-60 Modelle pro Jahr ein und überwacht ständig das Champion- und Challenger-Framework. Dazu gehört die kontinuierliche Überwachung und der Vergleich mehrerer konkurrierender Strategien in einer Produktionsumgebung und die Bewertung ihrer Leistung im Laufe der Zeit. Diese Technik hilft bei der Bestimmung, welches Modell die besten Ergebnisse liefert („Champion“) und zweitplatzierte Optionen („Herausforderer“).

Laut Meta produziert das Unternehmen immer etwas, aber das Ziel ist es, die Produktionszeit kontinuierlich zu reduzieren. Seine Abteilung hat in dieser Hinsicht bereits Fortschritte gemacht und den KI-Modellierungsprozess (von der Entdeckung bis zum Markt) von mehr als 50 Wochen auf 20 Wochen verkürzt.

Die Frage lautet: „Wie kann ich den gesamten End-to-End-Flow optimieren und so weit wie möglich automatisieren?“ Sagte Meta. „Es geht nicht um ein bestimmtes KI-Modell. Allgemein gesagt: „Wie viel Muskelgedächtnis braucht man, um diese Dinge auf den Markt zu bringen und einen Mehrwert zu schaffen?“

„Der Wert von ML wird sich speziell auf Anwendungsfälle beziehen, an die wir noch nicht einmal gedacht haben“, fügte er hinzu.

Förderung des Dialogs in der Finanzdienstleistungsbranche

Insgesamt wird die Branche auch erheblich von der Überbrückung der digitalen Expansion zwischen großen und kleinen Akteuren profitieren. Laut Mehta fördert die Zusammenarbeit „intelligente Einblicke“ und trägt dazu bei, die Branche auf die nächste Ebene der Interaktion mit ihren Kunden zu bringen.

Dies kann mit Funktionen erreicht werden, die es in der heutigen Industrie nicht gibt, wie sichere Mehrparteienberechnungen und Zero-Knowledge-Proof-Plattformen, sagte Mehta.

Sicheres Multi-Party-Computing ist ein Verschlüsselungsprozess, der Berechnungen auf mehrere Parteien verteilt, die Eingaben jedoch privat hält und verhindert, dass jede Partei die Daten anderer Parteien einsieht. In ähnlicher Weise ist der Zero-Encryption-Wissensnachweis eine Möglichkeit für eine Partei, der anderen zu beweisen, dass eine bestimmte Aussage wirklich wahr ist, aber zusätzliche (potenziell sensible) Informationen preisgibt.

Durch den Aufbau solcher Fähigkeiten werden Institutionen in der Lage sein, Informationen ohne Datenschutz- oder Datenverlustprobleme sicher miteinander zu teilen, während sie gleichzeitig in der Lage sind, angemessen im Ökosystem zu konkurrieren, sagte Mehta.

Ich prognostizierte, dass die Branche innerhalb von etwa fünf Jahren eine feste Hypothese über die Zusammenarbeit und den Einsatz solch fortschrittlicher Tools aufstellen würde.

Ebenso pflegt Wells Fargo einen ständigen Dialog mit den Aufsichtsbehörden. Als positives Zeichen erhielt Mehta kürzlich externe Anfragen von Regulierungsbehörden für KI / ML-Prozesse und -Methoden. Das ist in der Vergangenheit selten vorgekommen. Dies kann wichtig sein, betonte Mehta, da Institutionen „ziemlich heterogen“ in der Verwendung von Werkzeugen zum Erstellen von Modellen seien und der Prozess „potenziell stärker industrialisiert“ sei.

„Ich denke, die Regulierungsbehörden haben viel mehr Anreize, Interesse und Motivation, dies ein wenig besser zu verstehen, darüber nachzudenken und sich mehr zu engagieren“, sagte Mehta. “Dies entwickelt sich schnell und muss sich mit ihm entwickeln.”