Good Data schlägt Big data
Die Datensammelwut kennt keine Grenzen. Versprechen die Daten doch eine effizientere und individualisierte Kundenansprache für mehr Wachstum. Für Wachstum in den Datenmengen sorgen wiederum immer mehr persönliche Feindaten. Masse ist für statistische Signifikanz durchaus beruhigend, doch fehlerhafte Masse bringt selbst den intelligentesten Algorithmus in Schwierigkeiten. Die Folge sind dann massenhafte – und teure-Fehler.
Bestandsdaten checken
Was man hat, das hat man. Doch gerade bestehende Datenbestände bedürfen einer kritischen Prüfung. Die Post hat jüngst festgestellt, dass aktuell 10 % mehr Kundenadressen unzustellbar waren als noch vor fünf Jahren. Nach einer Studie des Business Application Research Center (BARC) haben 80 Prozent der Unternehmensmitarbeiter nur ein eingeschränktes Vertrauen in die Datenqualität im Unternehmen. Vielleicht haben sie ja an der Erfassung mitgearbeitet?
Bevor man also zu komplizierten Datenverknüpfungen ansetzt, unbedint auf Aktualität, Dubletten
und Plausibilität checken. In den USA schätzt man den jährlichen Schaden durch mangelnde Datenqualität auf 600 Mrd. US-Dollar.
Datenquellen verknüpfen
Maschinell erzeugte Daten in einem strukturierten Data-Warehouse sind gemeinhin recht zuverlässig. Qualitativ wertvoll werden diese aber erst, wenn man sie mit unstrukturierten Daten aus anderen Quellen verknüpfen kann. Aus Social Media, aus separaten Erhebungen, aus Regionaldaten, aus Aktionen… Verknüpfen heißt in diesem Zusammenhang eindeutig zuordnen und so Datensätze um qualitative Merkmale ergänzen und interpretierbar zu machen.
Bevor man also Maschinen die Auswertung faktischer und qualitativer Informationen anvertrauen kann, muss man durch eindeutige Bindeglieder sicherstellen, dass alles am richtigen Artikel, Kunden oder was auch immer zugeordnet ist. Laut der Omikron Data Quality GmbH urteilen 44 Prozent, dass aus Big Data neue, noch nicht ausreichend klare Herausforderungen erwachsen, was die Datenqualität betrifft.
Klasse versus Masse
Der Aufwand in Qualitätsmanagement der Daten ist nicht unerheblich. Insbesondere wenn man dynamisch immer neue Daten und Quellen generiert. Und die letzten 5% Sicherheit sind auch bei Big Data immer die teuersten. Doch was nützt die Masse, wenn darin Fehler potenziert werden? Das bleibt eine fortwährende Abwägung je nach Zielsetzung und Strategie.
Bevor man also in eine teure Big Data-basierte Aktion investiert, sollte gestütztes Vertrauen in die benutzte Datenqualität hergestellt sein. Auch hier gilt „garbage in – garbage out“.
CIO vs CMO
Also doch eher Information Officer einstellen als das komplexe Thema den Marketing Officers zu überlassen? Technisch gesehen sicher. Jedoch zeigen sich dort schnell Tendenzen zum „overengineering“. Warum haben wir das gemacht? Weil wir es können! Das trifft nicht immer das Ziel, wie manche Features in der Autoindustrie vormachen. Letztlich geht es um ein besseres Kundenverständnis und Plausibilität. Das sollte ein guter Marketeer mit seiner Sicht der Dinge besser bedienen können. Schon bei der Erschließung neuer Daten. Dem muss er sich zukünftig vermehrt stellen.
Bevor man also die „entweder – oder“-Frage aufwirft, kann vernünftiges Teambuilding wieder einmal die bessere Alternative sein. Big Data ist Chance und Herausforderung zugleich. Das ist als Mannschaftssport besser zu bewältigen.
Für Fragen und Hilfestellungen stehe ich gern zur Verfügung: rolf.klein@erkabe.com
Bestandsdaten checken
Was man hat, das hat man. Doch gerade bestehende Datenbestände bedürfen einer kritischen Prüfung. Die Post hat jüngst festgestellt, dass aktuell 10 % mehr Kundenadressen unzustellbar waren als noch vor fünf Jahren. Nach einer Studie des Business Application Research Center (BARC) haben 80 Prozent der Unternehmensmitarbeiter nur ein eingeschränktes Vertrauen in die Datenqualität im Unternehmen. Vielleicht haben sie ja an der Erfassung mitgearbeitet?
Bevor man also zu komplizierten Datenverknüpfungen ansetzt, unbedint auf Aktualität, Dubletten
und Plausibilität checken. In den USA schätzt man den jährlichen Schaden durch mangelnde Datenqualität auf 600 Mrd. US-Dollar.
Datenquellen verknüpfen
Maschinell erzeugte Daten in einem strukturierten Data-Warehouse sind gemeinhin recht zuverlässig. Qualitativ wertvoll werden diese aber erst, wenn man sie mit unstrukturierten Daten aus anderen Quellen verknüpfen kann. Aus Social Media, aus separaten Erhebungen, aus Regionaldaten, aus Aktionen… Verknüpfen heißt in diesem Zusammenhang eindeutig zuordnen und so Datensätze um qualitative Merkmale ergänzen und interpretierbar zu machen.
Bevor man also Maschinen die Auswertung faktischer und qualitativer Informationen anvertrauen kann, muss man durch eindeutige Bindeglieder sicherstellen, dass alles am richtigen Artikel, Kunden oder was auch immer zugeordnet ist. Laut der Omikron Data Quality GmbH urteilen 44 Prozent, dass aus Big Data neue, noch nicht ausreichend klare Herausforderungen erwachsen, was die Datenqualität betrifft.
Klasse versus Masse
Der Aufwand in Qualitätsmanagement der Daten ist nicht unerheblich. Insbesondere wenn man dynamisch immer neue Daten und Quellen generiert. Und die letzten 5% Sicherheit sind auch bei Big Data immer die teuersten. Doch was nützt die Masse, wenn darin Fehler potenziert werden? Das bleibt eine fortwährende Abwägung je nach Zielsetzung und Strategie.
Bevor man also in eine teure Big Data-basierte Aktion investiert, sollte gestütztes Vertrauen in die benutzte Datenqualität hergestellt sein. Auch hier gilt „garbage in – garbage out“.
CIO vs CMO
Also doch eher Information Officer einstellen als das komplexe Thema den Marketing Officers zu überlassen? Technisch gesehen sicher. Jedoch zeigen sich dort schnell Tendenzen zum „overengineering“. Warum haben wir das gemacht? Weil wir es können! Das trifft nicht immer das Ziel, wie manche Features in der Autoindustrie vormachen. Letztlich geht es um ein besseres Kundenverständnis und Plausibilität. Das sollte ein guter Marketeer mit seiner Sicht der Dinge besser bedienen können. Schon bei der Erschließung neuer Daten. Dem muss er sich zukünftig vermehrt stellen.
Bevor man also die „entweder – oder“-Frage aufwirft, kann vernünftiges Teambuilding wieder einmal die bessere Alternative sein. Big Data ist Chance und Herausforderung zugleich. Das ist als Mannschaftssport besser zu bewältigen.
Für Fragen und Hilfestellungen stehe ich gern zur Verfügung: rolf.klein@erkabe.com