Warum eine normale Geschäftsbank heute Risikomanagement in Echtzeit braucht.
Vielerbanks glaubt man noch an eine nachsichtige und rücksichtsvolle Geduld der Märkte: Es reiche derzeit meistens aus, wenn Risikoanalysen nicht sofort, sondern erst nach ein oder zwei Tagen vorlägen, so eine gängige Sichtweise. Aber wäre Stillstand ein Erfolgsfaktor, müsste Nokia nach wie vor an der Spitze der Mobiltelefonhersteller stehen. Im Risikocontrolling gilt nach wie vor die 80/20-Regel. Bei den fünf bis zehn Stresstests könne man damit leben, wenn sie über Nacht durchgerechnet würden. Außerdem habe man gar nicht so viele Daten wie Investment-Häuser oder international tätige Großbanken und brauche deshalb keine High-Performance-Lösungen. Operativ sind diese Ansichten nachvollziehbar – strategisch nicht.
In der heutigen Batch-Prozess-orientierten Banken-IT werden die Daten einmal täglich von den operativen Systemen über das Data Warehouse in die Risikomanagement-Welt zur Verarbeitung gesendet. In manchen Bereichen, wie etwa bei der Limitüberwachung, ergeben sich auch (Near) Realtime-Verarbeitungen. In anderen Bereichen übernehmen die operativen Frontoffice-Systeme die Berechnung bestimmter Informationen. Die Realität zeigt aber, dass dies in vielen Banken sehr ungenau erfolgt und entscheidende Risikokosten nur näherungsweise oder sogar gar nicht berücksichtigt werden (etwa Liquiditätskosten). Um möglichst schnell neue Geschäfte beurteilen zu können, muss der Gesamtprozess beschleunigt werden. Das geht nur, wenn der Schritt von einer Batch-orientierten Verarbeitung zu einer transaktionsorientierten kontinuierlichen Verarbeitung konsequent erfolgt. Dies bedeutet, dass geplante Geschäfte direkt in die Risikobewertung geschickt und ganzheitlich unter den Portfoliobedingungen bewertet werden müssen. Die Sicherstellung der Datenqualität muss direkt an der Datenerfassungsquelle erfolgen. Um Datenqualität durchgängig auch als lohnendes Ziel zu etablieren, haben sich Datenqualitäts-Dashboards und Datenqualitäts-Gütesiegel bewährt. Dazu sind Datenqualitäts-Kennzahlen zu erheben, die die Korrektheit, Vollständigkeit und Konsistenz anzeigen, die auch von Basel III gefordert werden. Datenqualität kann nur im Miteinander von IT und Fachabteilung entstehen. Die Vergangenheit zeigt aber, dass die traditionelle Vorgehensweise der Erstellung von Fachkonzepten durch die Fachabteilung, die dann in technische Spezifikationen für die IT übersetzt werden, unübersehbare Schwächen aufweist. Abhilfe können hier klare Verantwortlichkeiten schaffen. Der entscheidende Schritt kommt aber durch die technischen Möglichkeiten, mit denen sich die Fachabteilung eigenständig, schnell und einfach mittels Profiling einen Überblick über die möglichen Feldausprägungen verschaffen und so falsche Werte identifizieren kann und Fehlermuster erkennt.
Ein Mehrwert besteht darin, Entscheidungen im Vorfeld schon durch Simulation zu validieren, um die Auswirkungen einer Entscheidung wie etwa den Abschluss eines Sicherungsgeschäftes ex ante auf das Risiko eines Gesamtportfolios darzustellen. Hier spielen schnelle Datenintegrationsprozesse genauso eine Rolle wie schnelle Bewertungen und schnelle Visualisierungen. Lassen sich Ergebnisse schneller in Entscheidungen einbeziehen, als es die anderen Marktteilnehmer können, so entsteht neben mehr Entscheidungssicherheit ein klarer Wettbewerbsvorteil. Auch über das Trading hinaus liegen Anwendungsszenarien auf der Hand. So kann im normalen Kreditvergabeprozess direkt das Kreditrisiko an den Berater weitergegeben werden, um die Kreditentscheidung zu optimieren. Selbstverständlich kann auch ein Realtime-System den Verantwortlichen keine Entscheidung abnehmen. Der Unterschied besteht darin, die Entscheidungen zu objektivieren und abzusichern. Einige Beispiele dafür finden Sie hier: http://www.sas.de/risk-finance.
Foto von Nebojsa Bobic – www.istockphoto.de