Datenqualitätsmanagement – entscheidende Voraussetzung der Big-Data-Ansätze als CRM

BigDataFür das CRM kann durch die Nutzung von Big-Data-Methoden wertvolles Wissen generiert werden. Gerade in Bezug auf die soziale Vernetzung oder dem Suchverhalten im Internet, die durch die momentanen Daten nicht abgedeckt sind, lässt sich ein genaueres Bild des Kunden zeichnen. Um dieses Wissen stabil und nachhaltig in Wert umzuwandeln, ist ein gezieltes Datenqualitätsmanagement nötig. Die Dokumentation der Generierungsprozesse, ein fortlaufendes Datenqualitäts-Monitoring und die Vermittlung des Methodenwissens stellen wesentliche Maßnahmen dar, die in jedem Unternehmen umgesetzt sein sollten.

Ausgangssituation

Aussagekräftiges Wissen über die eigenen Kunden und Kundenstrukturen zu haben, ist besonders im Bereich des Kampagnenmanagements essentiell, da sich sonst kein wirksames Customer Relationship Management implementieren lässt. Persönliche Informationen über Kunden, Ereignisse und Veränderungen in Kundensituation und -verhalten in einem CRM-System können als Gelegenheit für eine Kommunikation genutzt werden. Dank dieser verfügbaren Daten wird eine personalisierte Interaktion mit dem Kunden, wie Angebote und Services, möglich.

Durch den Einsatz von Big-Data-Methoden sammeln viele Unternehmen momentan erste Erfahrungen in diesem Bereich. Diese Methoden versprechen, aus großen Mengen an meist unstrukturierten Daten in kürzester Zeit mittels statistischer Methoden zusätzliches Wissen über die Kunden zu generieren. Oftmals werden dazu automatisch erzeugte Daten verwendet, wie zum Beispiel Logfiles oder auch Clickstreams, die aus der Nutzung der Webseite, eines Webshops oder den Daten aus sozialen Netzen erhoben werden. Dieses Wissen leistet einen wesentlichen Beitrag für die CRM-Aktivitäten. Dabei stellt sich die Frage der Wichtigkeit von Datenqualität bei Einsatz von Big-Data-Methoden. Denn: Die Analyse und das damit generierte Wissen kann nur so gut sein, wie die Qualität der genutzten Daten.

Grundgedanke

Eine automatisierte Generierung von Daten und daraus Wissen, wie durch Big-Data-Methoden, kann bewirken, dass man davon ausgeht, dass Bemühungen zur Verbesserung der Datenqualität keine so große Bedeutung mehr haben. Dies ist ein Irrtum, denn das Gebot des Datenqualitätsmanagements bleibt bestehen, auch wenn sich die Schwerpunkte verändern.

Zwei typische Probleme aus der Praxis: Durch Systemausfälle kann es bei der automatisierten Datengenerierung beispielsweise zu sporadisch unvollständigen Daten kommen. Mit diesen Lücken ist umzugehen, um nicht systematische Verzerrungen zu erhalten. Auch kommt es gelegentlich zu einer fehlerhaften fachlichen Interpretation von Analyseergebnissen, wenn eine Analyse des Prozesses der Datengenerierung ausbleibt und auf Basis von Folgerungen Schlüsse gezogen werden.

Um Datenqualitätsprobleme entgegenzuwirken, sollte eine systematische Herangehensweise erarbeitet werden. So ist doch die Analyse und Beseitigung von Ursachen für erkannte Probleme die entscheidende Basis für nachhaltigen Erfolg. In einer Untersuchung zum Datenqualitätsmanagement im CRM (Leußer, 2011) wurden bei einer Befragung von CRM-Experten in DACH-Gebiet folgende allgemeine Ursachenfelder identifiziert:

  • Mangelhafte Datenerfassung: Beispiele sind  der begrenzte Einfluss auf externe Datenlieferungen oder versehentliche Falsch- oder Nichterfassung.
  • Alterungsprozess der Daten
  • Design und Betrieb von Geschäftsprozessen und IT-Systemen: Dazu zählen Aspekte wie ungenügende Prozesse und Qualitätskontrollen und der laufende Betrieb der IT-Systeme.
  • Umsetzung und Anwendung eines Datenqualitätsmanagements: Ursachen dafür können eine fehlende Datenqualitätskultur im Unternehmen oder eine unzureichende Dokumentation sein.

Diese Ursachenfelder lassen sich auch auf Big-Data-Methoden anwenden:

Der Alterungsprozess der Daten ist gerade bei stark volatilen Daten, die oftmals eine kurze Werthaltigkeit haben, ein bedeutendes Thema. Genau aus diesem Grund wurden entsprechende Big-Data-Methoden wie MapReduce entwickelt, um Wissen schnell generieren zu können. Für eine zeitnahe Reaktion auf die neusten Erkenntnisse benötigt es aber neben der Analyse auch eine entsprechend angelegte Architektur, die auch für die Kommunikations-Systeme der Marketing-Automation genutzt werden kann. Damit kommt auch das oben genannte Ursachenfeld „Design von IT-Systemen“ in Berührung.

Ein häufiger Kritikpunkt an Big-Data-Analysen ist die fehlerhafte Interpretation der Ergebnisse. Korrelationen werden häufig mit Kausalität gleichgesetzt oder Beziehungen, wie Facebook-Freundschaften, überbewertet. Die Gründe hierfür liegen zumeist in fehlendem Wissen im Umgang mit Analyseergebnissen und unzureichender Dokumentation.

Es wird deutlich, dass sich die Schwerpunkte der Ursachen, die hinter Datenqualitätsproblemen im Zusammenhang mit Big-Data-Analysen liegen, ändern. Dies hat natürlich auch Effekte auf die folgenden Maßnahmen. Die zu Beginn erwähnte Untersuchung nennt für CRM-relevante Daten allgemein folgende Maßnahmenkategorien:

  • Kategorie Mensch: Sensibilisierung und Anreiz der Mitarbeiter und Schulungen zur Systembedienung
  • Kategorie Organisation: Festlegung von Zuständigkeiten für Datenbestände und deren Qualität
  • Kategorie Prozesse: Berücksichtigung von Datenqualitätsanforderungen bei der Systementwicklung und Plausibilitätsprüfungen bei der Datenerfassung
  • Kategorie Technologie: Ergänzung fehlender Daten durch Regeln

Diese Kategorien lassen sich ebenfalls auf Big-Data-Analysen anwenden. Zum Teil können Ergebnisse dieser Analysen die traditionelle Datenerfassung unterstützen und dabei bisherige Informations-Engpässe als Datenqualitätsproblem schließen. Aufgrund der Masse an Tracking-Informationen war beispielsweise das Verhalten auf Webseiten keine gut auslesbare Informationsquelle. Über eine entsprechende Analyse können nun für die Interaktion und Kommunikation wertvolle Inhalte ausgelesen werden.

Big-Data-Methoden lassen sich ebenso im Datenqualitäts-Monitoring einsetzen, wobei hier die Entdeckung von Unregelmäßigkeiten in den Datenströmen im Vordergrund steht. Ein entsprechendes Monitoring sichert dabei sowohl die Datenbasis für traditionelle Daten und Methoden wie auch für Big-Data-Analysen. Um Ursachenanalysen und Maßnahmen zu veranlassen werden Benachrichtigungen eingestellt, sobald Unregelmäßigkeiten, wie Ausreißer oder fehlende Daten auftreten.

Sebastian Amtage – b.telligent

The following two tabs change content below.
Sebastian Amtage

Sebastian Amtage

...ist einer der Gründer und Geschäftsführer von b.telligent, eines der führenden Beratungsunternehmen für BI, DWH, CRM und Big Data in der DACH-Region. Der Diplomphysiker berät seit über 15 Jahren international tätige Unternehmen unter anderem aus den Branchen Telekommunikation, Finanzdienstleistung und Medien bei der Einführung, Weiterentwicklung sowie Optimierung ihrer Informations- und Datenmanagementlösungen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.