„Früher wusste der Milchmann genau, wie viele Liter der Kunde geordert hatte“

Das Szenario kennen viele: Der Autokredit läuft seit zwei Monaten bei der Hausbank und im Briefkasten finden Sie Post mit Produktinformationen für das gleiche Kreditmodell. Wir sprachen mit Holger Wandt, Director Thought Leadership bei Quadient, über den Wert von Daten und deren smarte Verwendung.


Dr. Holger Wandt ist seit 1991 für Human Inference (heute Quadient) tätig. Der Director Thought Leadership ist Sprachwissenschaftler und seit vielen Jahren Experte auf dem Gebiet der Interpretation von Kundendaten durch natural language processing.

BANKINGNEWS: Smarte Datennutzung ist ein bekanntes Problem der Bankbranche. Wie kann es sein, dass Kunden in der heutigen Zeit immer noch völlig unpassende Produktinformationen erhalten?

Holger Wandt: Das Problem fängt bei den Stammdaten an. Wenn man auf Basis der verschiedenen Daten-Silos keine einheitliche Kundensicht erstellen kann, dann passieren solche Dinge. Gerade volatile Daten wie die Kundenadresse können dazu führen, dass der Datensatz Fehler enthält, die zu Folgefehlern in der Ansprache führen.

Während der Dauer des Lebenszyklus als Kunde ist man ständig im Dialog mit der Bank. Warum ist der Dialog mit den Kunden gerade heute so wichtig?

Früher wusste der Milchmann genau, wie viele Liter welcher Kunde geordert hatte. Er wusste auch, wann zum Beispiel die Kinder Geburtstag haben. Er verfügte über eine einheitliche Kundensicht. Das war auch nicht sonderlich schwierig bei maximal 100 Kunden. Heute gibt es viel mehr Kanäle, über die man mit dem Kunden kommunizieren kann. Jedoch besitzt man dadurch auch viel mehr Daten. Folglich teilt der Kunde bei jeder Kommunikation einzelne Brotkrümel mit der Bank. Die Bank muss diese Brotkrümel sammeln und zu einer einheitlichen Kundensicht kombinieren. Unser Unternehmen arbeitet in diesem Zusammenhang mit natürlicher Sprachverarbeitung. Wir bringen der Maschine bei, wie ein Mensch zu denken und zu kategorisieren: Wer ist wer und was enthalten meine Daten? Wir interpretieren die Daten. Zum Beispiel stellen wir die Frage: Was ist ein Vor- oder was ist ein Nachname? Das bedeutet, in der Software sind verschiedene Wissens-Corpora, die bei den Interpretationen helfen – etwa Methoden der Linguistik oder auch Statistik. Gelingt dieses Verfahren, generieren Sie eine spannende Customer Experience, d.h. die Art und Weise, wie der Kunde die Kommunikation und die Interaktion mit einem Unternehmen erlebt. Wir sind der Meinung, dass Customer Experience die neue Währung ist, wenn es um den Wettbewerbsvorsprung geht, nicht der Preis oder das Produktangebot.

Sie sprechen hier die Silo-Arbeitsweise von Banken an. Wir hören von vielen Seiten, dass hier der Hund begraben liege. Warum schafft es die Branche nicht, an dieser Stelle schneller zu optimieren?

Im Moment verzeichnen wir einen Paradigmenwechsel. Trotzdem gibt es eine gewisse Reserviertheit gegenüber dem Zusammenbringen der Daten aus verschiedenen Quellen, über welche ein Unternehmen jedoch bereits verfügt. Wir aggregieren die Daten aus dem operativen System in eine Art Data Hub. Dort erstellen wir den goldenen Datensatz – die „single version of the truth“. Doch aktuell hat man auf Bankenseite die Sorge, dass ein solches Vorgehen zu teuer oder zu anspruchsvoll sei, wobei das überhaupt nicht der Fall ist.

Neben der technischen Umsetzung, wie problematisch schätzen Sie das Thema Datenschutz ein?

Das ist immer ein zentraler Aspekt, auch wegen der Einführung der General Data Protection Regulation (GDPR) im Mai 2018. Wir reden viel mit Banken und Versicherungen, die sich Gedanken über die Umsetzung dieser Richtlinie machen. Das System muss so gebaut sein, dass das „Privacy-by-Design-Prinzip“ mitinbegriffen ist. Das System muss imstande sein, dem Kunden Einsicht in seine Daten zu gewähren. Bei uns kann man auf Knopfdruck nicht nur den eben erwähnten goldenen Datensatz, sondern auch alle darunterliegenden Quelldateien abrufen. Dadurch kann der Kunde seine Daten verifizieren. Bei einer neuen Verordnung wie der GDPR sind unsere Lösungen natürlich entsprechend anpassbar. Das ist eine unabdingbare Voraussetzung, wenn man so ein System baut.

Daten sind das neue Öl. Trotzdem verzeichnen Unternehmen enorme Verluste aufgrund von schlechter Datenqualität. Wie kann das sein? Es war doch noch nie so einfach, an Daten zu kommen.

Weil die Daten nicht richtig gemanagt werden. Das Institut Gartner hat herausgefunden, dass schlechte Datenqualität der Hauptgrund dafür ist, dass 40 Prozent aller geschäftlichen Initiativen es nicht schaffen, die gesteckten Erwartungen und Ziele zu erfüllen. Etwa 20 Prozent der Fehler basieren auf Schreibfehlern oder nicht eindeutigen Abkürzungen. Saubere Daten sind der Grundstein für eine erfolgreiche Kundenkommunikation – und die ist bekanntlich der Schlüssel zu erfolgreichen Abschlüssen.