BCBS239

BCBS239: Das vermeintliche Ende des Risikomanagers Neue Datenquellen katalysieren die Entwicklung moderner Werkzeuge zur Krisenfrüherkennung, Risikoquantifizierung und Prognose optimaler Strategien. Die moderne Technik hilft dem Risikomanager, wichtige Erkenntnisse zutage zu fördern. Doch Technik, so modern sie auch ist, kann den Menschen nicht ersetzen. Die neuen beziehungsweise wiederentdeckten Me-thoden aus den Laboren von Google & Co…


BCBS239: Das vermeintliche Ende des Risikomanagers

Neue Datenquellen katalysieren die Entwicklung moderner Werkzeuge zur Krisenfrüherkennung, Risikoquantifizierung und Prognose optimaler Strategien. Die moderne Technik hilft dem Risikomanager, wichtige Erkenntnisse zutage zu fördern. Doch Technik, so modern sie auch ist, kann den Menschen nicht ersetzen.

Die neuen beziehungsweise wiederentdeckten Me-thoden aus den Laboren von Google & Co bieten hervorragende Chancen für das Risikomanagement. Vorausgesetzt, man geht ethisch einwandfrei mit ihnen um. Bereits die Anwendung moderner Data-Mining-Verfahren auf hauseigene Daten fördert wichtige Erkenntnisse zutage.

Beratungsunternehmen stürzen sich auf das Gold

Leider werden diese neuen Perspektiven momentan von dem durch die Finanzkrisen heraufbeschworenen Regulierungsberg verstellt. Das führt wohl dazu, dass sich v. a. Beratungsunternehmen auf das brachliegende Gold stürzen und ihre Dienste und Expertise im Data-Mining feilbieten. Dabei nutzen sie den Umstand, dass das Thema Datenmanagement mit BCBS239 auch aufsichtsrechtlich aufgegriffen wurde.
Was zu denken gibt: Bei der Ausarbeitung ihrer Gesetzesvorlagen zur Datenhaltung hat die Bankenaufsicht die geforderten Standards mit Unterstützung externer Dienstleister festgelegt. Sie sind es nun, die ihre Kunden mit Angeboten überschütten, die speziell auf die Erfüllung der gesetzlichen Vorgaben zugeschnitten sind. Ob sie die selbst aufgelegte Latte überspringen, bleibt abzuwarten. Aber: In dem Baseler Papier geht es vorrangig um Qualität und Operationalität der Datenhaushaltung und -prozessierung.

Auch saubere Daten sprechen nicht für sich

Die Effektivität der darauf aufsetzenden Lernprozesse und die Fähigkeit, Wissen aus Daten zu generieren, ist ein anderes komplexes Thema. Der Verdacht liegt nahe, dass hier ein alter Hut als moderner, vorschriftsmäßiger Schutzhelm verkauft wird. Wenn mancher Anbieter dann auch noch behauptet, man könne mithilfe einer intuitiven graphischen Oberfläche auch in der Vorstandssitzung einer Großbank in Echtzeit ganze Portfolien simulieren, sollten bei Risikomanagern große Fragezeichen auftauchen.

Ohne Menschen nutzt die beste Technik nichts

Ist eine saubere Datenarchitektur nur eine Frage des richtigen Software-Produktes? Taugen ein paar statistische Funktionen und Visualisierungen als allumfassende Simulations- und Prognoseumgebung der Zukunft? Zumindest für große Institute ist beides fraglich. Die Realität lehrt uns: Fehlerhafte Daten sind oft menschengemacht und erscheinen daher zunächst plausibel. Gerade hier liegt das Problem. Daher können nur Spezialisten diese Probleme erkennen. Statistische Kennzahlen und Modellparameter unterliegen Schätzunsicherheiten und haben Interpretationsbedarf. Die meisten auf Visualisierung fokussierten Softwarelösungen ignorieren dieses Faktum. Man frage einmal nach Signifikanz- oder Kausalitätskriterien zu den besonders gern bestimmten Korrelationensparametern. Bei der Aggregation von Daten sorgen Nichtlinearitäten wie etwa in der Basel-Kapitalformel dafür, dass die Aggregationsebene selbst bei simplen Mittelwertbildungen entscheidend ist. Haben wir das nicht gerade erst gelernt?

Neue Analysemethoden ersetzen keine Menschen

Selbst bei einem sauberen Datenhaushalt kann also eine Handvoll statistischer Standardmethoden und Visualisierungen die vielen erfahrenen Risikomanager nicht ersetzen. Und das gilt umso mehr, wenn wir an die eingangs erwähnten neuen, anspruchvollen Analysemethoden denken. Dabei hätten gerade diese das Potenzial, in der Hand von Spezialisten wichtige Informationen zu generieren, die auch auf Managementebene leicht vermittelbar sind.

Die Zukunft ist individuell

Die neue Art der Datenanalyse wird sich für Netzwerkstrukturen und die Beziehungen zwischen individuellen Risikoeinheiten interessieren. Ein einzelnes Kreditengagement etwa bleibt dadurch im Portfoliokontext im Blick und ist auch im Management leichter zu diskutieren und zu bewerten als Zahlenaggregate. Ganz ähnlich verdrängt der 3D-Drucker allmählich die Massenproduktion zugunsten der Individualfertigung.
Der Auswertungsprozess von Daten wird in Zukunft vermutlich selbst nicht mehr in einer klassischen hierarchischen Aggregationslogik organisiert sein. An die Stelle der Baumstruktur könnte ein Kommunikationsnetz treten, das die Analyse von Daten, Kennzahlen und Einschätzungen an mehreren Stellen derselben Hierarchiebene erlaubt. Es kann auch Daten korrigieren, bewerten, abgleichen und die gewonnenen Erkenntnisse weitergeben. Dem richtig verknüpften individuellen Wissen und Können der Risikomanager mit ihrer Fähigkeit, Erkenntnisse aus Daten zu gewinnen und diese weiterzugeben, gehört die Zukunft. Überkommene Standardmethoden an ihren regulatorischen Krücken werden das auch im schönsten Gewande nicht dauerhaft verhindern können.

Bildnachweis: Peshkova über istockphoto.de