Unternehmen kommen um effizientes Datenmanagement nicht herum
Stephan Lochner war ein berühmter Maler. Im Mittelalter. Er verstarb vor 563 Jahren. Im Jahr 2007 bekam er nochmals Post von der Post. Ob er nicht an aktuellen Briefmarken interessiert sei, fragte das Unternehmen an und bot ihm ein so genanntes Vorzugspaket und die regelmäßige Vorabansicht neuer Briefmarken an. Dies war in einer Meldung der Katholischen Nachrichten-Agentur (KNA) zu lesen. Adressiert war das Schreiben an den Dom, in dem Lochners berühmtestes Werk hängt, der Altar der Stadtpatrone. In einem Antwortschreiben bedauerte der Kölner Dompropst Norbert Feldhoff damals, dass Locher das Angebot "tragischerweise" nicht mehr annehmen könne. Die Begebenheit, die damals für viel Belustigung sorgte, hat jedoch einen durchaus ernst zu nehmenden Hintergrund.
Viele Unternehmen verrechnen sich
Denn nicht nur die Post hat sich im Fall Stephan Lochner verrechnet. Auch viele Unternehmen tun dies. Fehler in ihren Adressdatenbanken verursachen – so eine Studie von The Datawarehouse Institut (TDWI) – alleine in den USA jährlich Wirtschaftsschäden von rund 600 Milliarden Dollar. Auf Deutschland umgerechnet, würde dies einer Belastung von rund 186 Milliarden Euro entsprechen. Ein Grund für Irrläufer und Mehrfachsendungen und damit einer erschwerten Kundenkommunikation sind veraltetet oder nicht vollständige Kundendaten.
Gerade die hohe Mobilität der Bürger trägt dazu bei, dass Datenbanken schnell veralten: Etwa 11 Prozent der deutschen Bevölkerung nehmen jährlich einen Wohnungswechsel vor. Zu diesem Ergebnis kommt eine Studie der Umzug.AG, die erstmals im Jahr 2009 erstellt wurde und in diesem Jahr in einer neuen Fassung erscheint. Danach wechseln in Deutschland jährlich 4,8 Millionen Haushalte ihren Wohnraum, was etwa 8,5 Millionen Personen entspricht.
Unternehmen müssen ein effizientes Datenmanagement betreiben
Unternehmen, die große Datenbestände zu pflegen haben, tun also gut daran, ein effizientes und professionelles Datenmanagement zu betreiben. Denn Fehler in den Datenbanken verursachen zum Teil immense Kosten. Etwa weil Mailings den Empfänger nicht erreichen, weil er den Wohnort gewechselt hat. Oder weil die adressierte Person aufgrund einer Eheschließung ihren Namen geändert hat.
Neben der Fehlerfreiheit sollte aber vor allem auch sichergestellt werden, dass die Datensätze nicht mehrfach vorhanden sind. Denn auch dann werden unnötige Kosten verursacht - beispielsweise in Form von Streuverlusten, weil ein Kunde bei einem Mailing mehrere Zusendungen erhält, der Kunde aber allenfalls einmal kauft. Schätzungen besagen, dass eine gut gepflegte Datenbank zwischen zwei und zehn, eine schlecht gepflegte zwischen 20 und 30 Prozent Dubletten enthalten.
Kundendaten: Fehler von Anfang an vermeiden
Werden Fehler in Datenbanken erkannt, ist es natürlich ratsam, diese sofort zu beheben. Noch effizienter ist es jedoch, bereits bei der ersten Dateneingabe die Vollständigkeit und Korrektheit sehr genau zu nehmen. Dieses Prinzip wird auch „First time right“ genannt. Experten empfehlen dabei, beim Anlegen neuer Kundendaten stets ein einheitliches Schema anzuwenden. Damit lässt sich nicht nur eine mögliche mühselige Fehlersuche im Nachhinein vermeiden. Ein festes Schema bedeutet auch eine Zeitersparnis und erhöht die Verlässlichkeit.
Sind jedoch bereits fehlerhafte Daten im System, ist die Schlacht noch längst nicht verloren. Mit den entsprechenden Tools können die Fehler effizient bereinigt werden. Dies muss allerdings ein permanenter Prozess werden, der die drei Teilprozesse Data Profiling, Data Cleansing und Monitoring umfasst.
Drei Schritte zu sauberen Daten
Beim Data Profiling werden die Daten analysiert, was dem Erkennen von Inkonsistenzen, Fehlern und Widersprüchen in den Datenbeständen dient. Aus den daraus gewonnenen Informationen können Maßnahmen abgeleitet werden, die zur Verbesserung der Datenqualität beitragen.
Anschließend folgt die Phase des Data Cleansing, der Datenbereinigung. Dabei werden die erkannten Probleme durch Anwendung verschiedener Algorithmen direkt behoben. Typische Arbeiten bei der Datenbereinigung sind z. B. Datentypkonvertierungen, Dublettenerkennung oder Vervollständigung lückenhafter Daten. Diese Phase kann sehr zeitintensiv werden.
Im Teilprozess Monitoring werden die Daten vor der Speicherung in den operativen und analytischen Systemen überprüft. Und in bestimmten Zeitabständen findet eine Prüfung des gesamten Kundendatenbestands statt. Denn ist einmal eine gewisse Datenqualität erreicht, sollte diese möglichst langfristig gewahrt werden. Dies kann zum einen organisatorisch sichergestellt werden, indem z. B. Stammdaten nur von einer verantwortlichen Person angelegt und geändert werden dürfen. Zum anderen durch technische Unterstützung wie beispielsweise einer Validierung der Eingabefelder oder durch Workflowunterstützung von Prozessen.
Software unterstützt den gesamten Prozess
Da eine manuelle Bereinigung großer Datenmengen nicht in effizienter Weise durchgeführt werden kann, ist der Einsatz von Data-Cleansing-Werkzeugen zu empfehlen. Mit ihrer Hilfe kann teilweise auch der Prozess der Datenintegration automatisiert werden.
Um Dubletten in großen Kundendatenbanken zu bereinigen, versprechen vor allem jene Verfahren Erfolg, die computergestützte Schlussfolgerungen mit der menschlichen Intelligenz kombinieren. Denn wenn angesichts der zunehmenden Globalisierung Namen unterschiedlichster Nationalitäten Einzug in Kundendatenbanken halten, stoßen die üblichen mathematischen Prozeduren zur Dublettenerkennung und Adressvalidierung schnell an ihre Grenzen. Dies gilt auch, wenn weltweit operierende Konzerne es bei ihren Adressdaten mit verschiedenen landesspezifischen Schreibweisen zu tun haben.
Um hier „saubere“ Daten zu bekommen, ist länderspezifisches Wissen gefragt. Es muss z.B. nationale Besonderheiten der Adressierung, der Namen und der Schreibweisen berücksichtigen. Neben den herkömmlichen mathematischen Verfahren kommen deshalb in der Datenqualitätssoftware zunehmend auch wissensbasierte Methoden zum Einsatz, die Einsichten der Computerlinguistik zur Spracherkennung und -synthese anwenden. Im Ergebnis wird eine deutlich höhere Erkennungsquote von Dubletten erreicht – über Länder- und Sprachgrenzen hinweg.
Mit diesen Maßnahmen lässt sich die Datenqualität eines Unternehmens merklich steigern. Eine einmalige Bereinigung ist dabei allerdings in der Regel nicht ausreichend. Daten verändern sich ständig und müssen deshalb fortlaufend gepflegt werden. Nur mit richtigen Daten können Sie Konsistenz, Korrektheit und Vollständigkeit steigern und Ihre Kunden korrekt ansprechen, so dass Sie Kosten und Imageschäden für Ihr Unternehmen vermeiden können.
Weitere Informationen
In dem kostenlosen Whitepaper “First Time Right. Turning your customer data into customer lifetime value" (Download hier) wird beispielhaft anhand von zwei unterschiedlichen Kundenkontaktsituationen erläutert, inwieweit eine "First Time Right"-Lösung, Verbesserungen für die Unternehmensprozesse im Marketing und Vertrieb bringt. Darüber hinaus benennt der englischsprachige Bericht, welche möglichen Fehlerquellen beim Anlegen von neuen Kundendatensätzen auftreten können und wie dies zukünftig mithilfe von „First Time Right" verhindert werden kann.
Außerdem stellt das Whitepaper ausführlich dar, wie das „First Time Right" Verfahren in der Praxis funktioniert und welche enormen Vorteile es zur Sicherung der Qualität von Adressdaten hat. Denn indem die Daten zum Beispiel bei jedem Kundenkontakt auf Dubletten überprüft werden, kann man sicher sein, dass etwa ein Master Data Management-System nur saubere und korrekte Daten enthält.
Der Autor:
Holger Wandt ist seit 1991 für das niederländische Softwarehaus Human Inference tätig. Als Sprachwissenschaftler hat er viele Jahre an der Erfassung, Pflege und Qualität des Wissens gearbeitet, das die Produkte von Human Inference auszeichnet. In seiner heutigen Position als Principal Advisor ist er verantwortlich für alle wissensbezogenen Fragen zur Datenqualität. Zudem ist er als Experte zuständig für alle Aspekte der Standardisierung von Namen und Adressen auf nationaler und internationaler Ebene. Daneben ist Holger Wandt Studienleiter der Masterclass Data Quality Management an der Universität St. Gallen und an der Nyenrode Business-Universität sowie Dozent der linguistischen Fakultät an der Universität Utrecht.
Viele Unternehmen verrechnen sich
Denn nicht nur die Post hat sich im Fall Stephan Lochner verrechnet. Auch viele Unternehmen tun dies. Fehler in ihren Adressdatenbanken verursachen – so eine Studie von The Datawarehouse Institut (TDWI) – alleine in den USA jährlich Wirtschaftsschäden von rund 600 Milliarden Dollar. Auf Deutschland umgerechnet, würde dies einer Belastung von rund 186 Milliarden Euro entsprechen. Ein Grund für Irrläufer und Mehrfachsendungen und damit einer erschwerten Kundenkommunikation sind veraltetet oder nicht vollständige Kundendaten.
Gerade die hohe Mobilität der Bürger trägt dazu bei, dass Datenbanken schnell veralten: Etwa 11 Prozent der deutschen Bevölkerung nehmen jährlich einen Wohnungswechsel vor. Zu diesem Ergebnis kommt eine Studie der Umzug.AG, die erstmals im Jahr 2009 erstellt wurde und in diesem Jahr in einer neuen Fassung erscheint. Danach wechseln in Deutschland jährlich 4,8 Millionen Haushalte ihren Wohnraum, was etwa 8,5 Millionen Personen entspricht.
Unternehmen müssen ein effizientes Datenmanagement betreiben
Unternehmen, die große Datenbestände zu pflegen haben, tun also gut daran, ein effizientes und professionelles Datenmanagement zu betreiben. Denn Fehler in den Datenbanken verursachen zum Teil immense Kosten. Etwa weil Mailings den Empfänger nicht erreichen, weil er den Wohnort gewechselt hat. Oder weil die adressierte Person aufgrund einer Eheschließung ihren Namen geändert hat.
Neben der Fehlerfreiheit sollte aber vor allem auch sichergestellt werden, dass die Datensätze nicht mehrfach vorhanden sind. Denn auch dann werden unnötige Kosten verursacht - beispielsweise in Form von Streuverlusten, weil ein Kunde bei einem Mailing mehrere Zusendungen erhält, der Kunde aber allenfalls einmal kauft. Schätzungen besagen, dass eine gut gepflegte Datenbank zwischen zwei und zehn, eine schlecht gepflegte zwischen 20 und 30 Prozent Dubletten enthalten.
Kundendaten: Fehler von Anfang an vermeiden
Werden Fehler in Datenbanken erkannt, ist es natürlich ratsam, diese sofort zu beheben. Noch effizienter ist es jedoch, bereits bei der ersten Dateneingabe die Vollständigkeit und Korrektheit sehr genau zu nehmen. Dieses Prinzip wird auch „First time right“ genannt. Experten empfehlen dabei, beim Anlegen neuer Kundendaten stets ein einheitliches Schema anzuwenden. Damit lässt sich nicht nur eine mögliche mühselige Fehlersuche im Nachhinein vermeiden. Ein festes Schema bedeutet auch eine Zeitersparnis und erhöht die Verlässlichkeit.
Sind jedoch bereits fehlerhafte Daten im System, ist die Schlacht noch längst nicht verloren. Mit den entsprechenden Tools können die Fehler effizient bereinigt werden. Dies muss allerdings ein permanenter Prozess werden, der die drei Teilprozesse Data Profiling, Data Cleansing und Monitoring umfasst.
Drei Schritte zu sauberen Daten
Beim Data Profiling werden die Daten analysiert, was dem Erkennen von Inkonsistenzen, Fehlern und Widersprüchen in den Datenbeständen dient. Aus den daraus gewonnenen Informationen können Maßnahmen abgeleitet werden, die zur Verbesserung der Datenqualität beitragen.
Anschließend folgt die Phase des Data Cleansing, der Datenbereinigung. Dabei werden die erkannten Probleme durch Anwendung verschiedener Algorithmen direkt behoben. Typische Arbeiten bei der Datenbereinigung sind z. B. Datentypkonvertierungen, Dublettenerkennung oder Vervollständigung lückenhafter Daten. Diese Phase kann sehr zeitintensiv werden.
Im Teilprozess Monitoring werden die Daten vor der Speicherung in den operativen und analytischen Systemen überprüft. Und in bestimmten Zeitabständen findet eine Prüfung des gesamten Kundendatenbestands statt. Denn ist einmal eine gewisse Datenqualität erreicht, sollte diese möglichst langfristig gewahrt werden. Dies kann zum einen organisatorisch sichergestellt werden, indem z. B. Stammdaten nur von einer verantwortlichen Person angelegt und geändert werden dürfen. Zum anderen durch technische Unterstützung wie beispielsweise einer Validierung der Eingabefelder oder durch Workflowunterstützung von Prozessen.
Software unterstützt den gesamten Prozess
Da eine manuelle Bereinigung großer Datenmengen nicht in effizienter Weise durchgeführt werden kann, ist der Einsatz von Data-Cleansing-Werkzeugen zu empfehlen. Mit ihrer Hilfe kann teilweise auch der Prozess der Datenintegration automatisiert werden.
Um Dubletten in großen Kundendatenbanken zu bereinigen, versprechen vor allem jene Verfahren Erfolg, die computergestützte Schlussfolgerungen mit der menschlichen Intelligenz kombinieren. Denn wenn angesichts der zunehmenden Globalisierung Namen unterschiedlichster Nationalitäten Einzug in Kundendatenbanken halten, stoßen die üblichen mathematischen Prozeduren zur Dublettenerkennung und Adressvalidierung schnell an ihre Grenzen. Dies gilt auch, wenn weltweit operierende Konzerne es bei ihren Adressdaten mit verschiedenen landesspezifischen Schreibweisen zu tun haben.
Um hier „saubere“ Daten zu bekommen, ist länderspezifisches Wissen gefragt. Es muss z.B. nationale Besonderheiten der Adressierung, der Namen und der Schreibweisen berücksichtigen. Neben den herkömmlichen mathematischen Verfahren kommen deshalb in der Datenqualitätssoftware zunehmend auch wissensbasierte Methoden zum Einsatz, die Einsichten der Computerlinguistik zur Spracherkennung und -synthese anwenden. Im Ergebnis wird eine deutlich höhere Erkennungsquote von Dubletten erreicht – über Länder- und Sprachgrenzen hinweg.
Mit diesen Maßnahmen lässt sich die Datenqualität eines Unternehmens merklich steigern. Eine einmalige Bereinigung ist dabei allerdings in der Regel nicht ausreichend. Daten verändern sich ständig und müssen deshalb fortlaufend gepflegt werden. Nur mit richtigen Daten können Sie Konsistenz, Korrektheit und Vollständigkeit steigern und Ihre Kunden korrekt ansprechen, so dass Sie Kosten und Imageschäden für Ihr Unternehmen vermeiden können.
Weitere Informationen
In dem kostenlosen Whitepaper “First Time Right. Turning your customer data into customer lifetime value" (Download hier) wird beispielhaft anhand von zwei unterschiedlichen Kundenkontaktsituationen erläutert, inwieweit eine "First Time Right"-Lösung, Verbesserungen für die Unternehmensprozesse im Marketing und Vertrieb bringt. Darüber hinaus benennt der englischsprachige Bericht, welche möglichen Fehlerquellen beim Anlegen von neuen Kundendatensätzen auftreten können und wie dies zukünftig mithilfe von „First Time Right" verhindert werden kann.
Außerdem stellt das Whitepaper ausführlich dar, wie das „First Time Right" Verfahren in der Praxis funktioniert und welche enormen Vorteile es zur Sicherung der Qualität von Adressdaten hat. Denn indem die Daten zum Beispiel bei jedem Kundenkontakt auf Dubletten überprüft werden, kann man sicher sein, dass etwa ein Master Data Management-System nur saubere und korrekte Daten enthält.
Der Autor:
Holger Wandt ist seit 1991 für das niederländische Softwarehaus Human Inference tätig. Als Sprachwissenschaftler hat er viele Jahre an der Erfassung, Pflege und Qualität des Wissens gearbeitet, das die Produkte von Human Inference auszeichnet. In seiner heutigen Position als Principal Advisor ist er verantwortlich für alle wissensbezogenen Fragen zur Datenqualität. Zudem ist er als Experte zuständig für alle Aspekte der Standardisierung von Namen und Adressen auf nationaler und internationaler Ebene. Daneben ist Holger Wandt Studienleiter der Masterclass Data Quality Management an der Universität St. Gallen und an der Nyenrode Business-Universität sowie Dozent der linguistischen Fakultät an der Universität Utrecht.