In der Bankenlandschaft gestaltet sich das Thema Big Data je nach Bereich sehr unterschiedlich: Im Immobilienumfeld sind häufiger verschiedene Datenbanken zu finden, die ermittelt und zusammengefasst werden müssen (Wide Data), wohingegen im Financial-Markets-Umfeld die Herausforderungen mit der Zunahme der Handelsgeschwindigkeit einhergehen. Herkömmliche Datenverarbeitungsmethoden stoßen sowohl bei der Ablage der Daten als auch bei der Analyse an ihre Grenzen.
Die zügige und effektive Umsetzung einer Strategie für die Gewinnung von Entscheidungsunterstützungen auf Basis Künstlicher Intelligenz (KI) sowie deren starke Integration und Fokussierung in den Wertschöpfungsketten werden zu einem Imperativ für das Geschäftsmodell derjenigen Institute, die auch künftig erfolgreich sein wollen.
Aufbau einer Data-Analytics-Plattform
Die Norddeutsche Landesbank (NORD/LB) hat sich daher entschieden, eine für Big Data und KI-Analysen geeignete Plattform aufzubauen, die State of the Art ist. In der Bank sind in der Vergangenheit zunehmend Projekte entstanden, deren Hauptziel die Bereitstellung von Daten aus verschiedensten Systemen des Unternehmens war.
Ein Großteil der Anforderungen kann dabei durch die zentrale Banksteuerungsnormalisierungsschicht nicht abgebildet werden. Dafür gibt es mehrere Gründe: Zum einen stehen nicht alle relevanten Informationen in der zentralen Datenschicht zur Verfügung und die Technologie ist letztlich nicht für Analytics-Fragestellungen ausgelegt.
Zum anderen sind die Verfügbarkeiten von Mitarbeitern begrenzt und die aktuellen Prozesse langwierig. Ein Versuch, auf diesem Datenhaushalt eine auswertbare und für Self-Service geeignete Schicht via Data-Marts zu erstellen scheiterte vor allem an technologischen Limitierungen und Kostenzielen der Bank.
Aufsatzpunkt für eine erfolgreiche Implementierung einer Data-Analytics-Plattform war der Bedarf aus den Fachbereichen. Die Innovationsabteilung der IT und die IT-Architekten der Bank haben einen Lösungsvorschlag erarbeitet und frühzeitig verschiedene Anbieter geprüft. Im Rahmen eines Proof of Concept (PoC) wurde eine mögliche Lösungsarchitektur entwickelt.
Der Aufbau einer Analytics-Plattform wurde durch ein kleines, überwiegend internes Team durchgeführt. Die Bereitschaft, sich neues Wissen in Bereichen wie Data Science und Data Engineering anzueignen, und der Spaß an der Arbeit mit
neuen Technologien waren Erfolgsfaktoren beim Aufbau des PoC. In nur zweieinhalb Monaten wurden die Server bestellt, aufgebaut sowie das Cluster installiert und integriert. Der erste PoC-Use-Case konnte erfolgreich implementiert und in Demos präsentiert werden.
Kurz darauf gab es erste Anfragen von bestehenden Bankprojekten, die Plattform zur Lösung ihrer datengetriebenen Probleme zu nutzen. Pilotphasen von Projekten konnten genutzt werden, um das Funding für den PoC zu verbessern und weitere Mitarbeiter zu gewinnen.
Letztlich war es jedoch nicht möglich, den Anforderungen der Fachbereiche mit dem PoC mit Labor-Charakter gerecht zu werden. Neben Aspekten des Datenzugangs und der Governance war vor allem die Rechenleistung der PoC-Lösung nicht mehr ausreichend. So wurde noch während der Proof-of-Concept-Phase parallel der Start des Einführungsprojekts vorangetrieben. Die zahlreichen Erfahrungen wurden genutzt, um eine realistische und mit Daten unterlegte Projektplanung aufzusetzen.
Ein zentraler Erfolgsfaktor im Projekt war dabei das frühzeitige Einbinden wichtiger IT-Entscheidungsträger und der Fachbereiche, die das Projekt für sich angenommen und weitergetragen haben. Somit konnte ein fachbereichs- und geschäftsfeldübergreifendes Funding der Plattform erreicht werden. Die Einführung der Plattform wurde damit unabhängig von den weitreichenden Veränderungen in der Bank finanziert und der Betrieb sowie die zugehörige Mitarbeiterentwicklung somit sichergestellt.
In der Kernbank gelten andere Spielregeln
Was im PoC noch leicht umsetzbar erschien, ist in der Praxis mit einem Mindset-Wechsel der Bank verbunden. Die Einführung einer Plattform mit neuen Technologien stellt eine große Herausforderung dar, die durch bestehende regulatorische Vorgaben und bankinterne Prozesse an Komplexität gewinnt. Neben dem Aufbau der Technologie und der Klärung der Finanzierung muss auch neues Methodenwissen aus den Bereichen Data Science (Maschinelles Lernen), Data Engineering und Clustertechnologien in die Bank gebracht werden.
Und neben der dezentralen Weiterbildung aller Mitarbeiter im Umgang mit Big Data und KI ist die Adressierung der Dringlichkeit und Wichtigkeit des Change-Prozesses als Ganzes zentral. Sowohl beim Management als auch in der Belegschaft muss eine Change-Readiness durch geeignete Standardmaßnahmen aus dem Change-Management erzeugt werden, damit die Etablierung datengetriebener Wertschöpfung gelingen kann.
In der Arbeit auf der Plattform sind Betrieb und Administration von der fachlichen Use-Case-Arbeit zu trennen. Der Betriebsaufwand soll durch größtmögliche Automatisierung von manuellen Regelaufwänden möglichst klein gehalten werden, um den größtmöglichen Teil der verfügbaren Kapazitäten in Wertschöpfung zu investieren.
Ein Plattform-Team bestehend aus Betriebs-, IT- und Datenspezialisten stellt über die Prüfung bestehender und beantragter Use Cases sicher, dass die Plattform zweckgemäß eingesetzt wird. Die Use Cases müssen dabei durch die Betriebseinheit, aber natürlich auch durch die fachlichen Anwender, Data Engineers und Data Scientists permanent einer Tauglichkeitsprüfung
unterzogen und kontinuierlich weiterentwickelt werden.
Daten als zentrales Asset nutzen
Mit dem initialen Aufbau der Plattform ist der Grundstein gelegt. Um weiterhin wettbewerbsdifferenzierende Lösungen anbieten zu können, ist eine Entwicklung zu einer Hybridlösung, bestehend aus Cloud- und lokalen Kapazitäten, vorgesehen. Mit einer partiellen Migration von Services in die Cloud können dabei Innovationskräfte gehoben, Entwicklungen beschleunigt und Betriebskosten gesenkt werden.
Letztlich muss dabei ermöglicht werden, dass sämtliche fachlich interne und externe Datenquellen sicher in einer Plattform bereitgestellt werden. Um die unterschiedlichen Anforderungen zu erfüllen, müssen dabei Daten roh, teilnormalisiert und normalisiert bereitgestellt und mit Metadaten versehen sein.
Nur so können dezentral organisierte Teams unter Einsatz modernster Werkzeuge und Arbeitsweisen die Daten der Bank als ein zentrales Asset nutzen, um die personellen, technologischen und aufsichtsrechtlichen Herausforderungen meistern zu können.
Tipp: Mehr zum Thema IT finden Sie hier oder schauen Sie mal in den Beitrag „Die ‚Superposition‘ für die Bank“ und in die Infografik „Der nächste Quantensprung“.