print logo

Erfolgreiche Attribution trotz lückenhafter Daten

Abnehmende Datenqualität ist ein leidiges Thema im Digital Marketing. Die Implementierung von zusätzlichen Steuerungssystemen kann Abhilfe schaffen.
Marco Szeidenleder | 26.09.2022
Erfolgreiche Attribution trotz lückenhafter Daten © Freepik / rawpixel.com
 

Die Datenqualität mit der Online-Marketer auskommen müssen, verschlechtert sich immer weiter. Einschränkungen durch die DSGVO, Adblocking, „Privacy by Default“ etc. führen dazu, dass die für lange Zeit als gegeben hingenommenen Nutzer- und Bewegungsdaten immer spärlicher werden. Marketing-Touchpoints werden nur noch zum Teil erfasst und es ist keine Seltenheit mehr, dass - je nach Demografie - 50 Prozent der Nutzer nicht mehr erfasst werden können. 

Vor diesem Hintergrund wird erfolgreiches, datengetriebenes Marketing immer schwieriger. Wenngleich meist nicht der komplette Blindflug droht, sind wir gefühlt mit zunehmend schlechter Sicht unterwegs. Daher ist es spätestens jetzt an der Zeit, geeignete Assistenzsysteme zu implementieren, die helfen, auch im Instrumentenflug sicher ans Ziel zu steuern.

Eine stabile Dateninfrastruktur ist unentbehrlich

Grundsätzlich gilt es jetzt, so wenig Daten wie möglich zu verlieren und bestehende Daten optimal zu nutzen. Server-Side-Tracking erlaubt es, die Datenerfassung umzustellen, sodass diese deutlich weniger anfällig für Datenverluste aufgrund technischer Einschränkungen wird. Selbstverständlich entbindet auch das nicht vom Gebot der ethischen Datennutzung und der Pflicht zur Einholung der Nutzereinwilligung. 

Eine stabile und skalierbare Dateninfrastruktur ist vor dem Hintergrund dieser Entwicklungen unumgänglich. Sie dient als Basis für Auswertungen und Anwendungen, die helfen können, Datenlücken zu schließen. Der Aufbau einer solchen Dateninfrastruktur erlaubt es, verschiedene Datenquellen zu kombinieren und so Lücken in Auswertungen auszugleichen, bei denen bisher nur ein Datentopf herangezogen wurde. Fortgeschrittene statistische Ansätze ermöglichen es darüber hinaus, qualifizierte Annahmen für fehlende Datenpunkte zu treffen. Eine solche Investition lohnt sich aber nur, wenn auf ein stabiles Fundament in Form der Dateninfrastruktur gebaut werden kann.

Attribution hängt entscheidend von Qualität der Nutzerdaten ab

„Welches Werbemittel hat zu welchem Verkauf geführt?” – Einfacher könnte die grundlegende Frage zur Bestimmung der Effektivität einer Marketingkampagne kaum scheinen. Da jedoch üblicherweise mehr als ein Werbemittel an einem Verkauf beteiligt ist, sprich ein Benutzer hat in der Regel vor der Kaufentscheidung mit mehreren Anzeigen interagiert, ist eine Eins-zu-eins-Zuordnung zwischen Verkauf und Werbemittel kaum gegeben. Das macht die Verwendung eines Attributionsmodells unumgänglich. Selbst wenn nie eine aktive Entscheidung für ein bestimmtes Attributionsmodell getroffen wurde, wird zwangsläufig nach einem bestimmten Modell attribuiert. Bei Google Analytics ging der Zuschlag bisher immer an den letzten Paid-Media-Kanal. Mit GA4 ist es nun erstmals auch möglich, dieses Modell anzupassen. Dieses fundamentale Konzept ist allerdings stark beeinflusst von der Qualität der erfassten Nutzerdaten. Wenn die Gesamtheit der Touchpoints mit den einzelnen Werbemitteln, die sog. Customer Journey nicht richtig erfasst wird, kann auch keine richtige Zuordnung stattfinden.

Attribution trotz fehlender Daten

Der Begriff „Synthetic Attribution” umfasst mittlerweile unterschiedliche Methoden, die helfen können, den Nachteil der fehlenden Daten bei der Attribution auszugleichen. Eine dieser Methoden stammt aus der Sozialwissenschaft und wurde ursprünglich dazu genutzt, Wahlergebnisse auch mittels wenig repräsentativer Stichproben vorherzusagen. Aus einer Kombination von (verfügbaren) Tracking-Daten, Klick-Daten aus Ad-Netzwerken und Informationen aus dem Backend werden Daten für diejenigen Nutzer ergänzt, bei denen aufgrund fehlender Tracking-Daten nicht direkt attribuiert werden kann. 

Das ist möglich, da für manche Nutzer alle Datenpunkte bekannt sind: Ad-Clicks und Bestellungen sind per Definition vollständig, während andere Datentöpfe wie Webtracking nur für einen Teil der Nutzer Daten liefern. Dieses Wissen kann genutzt werden, um die fehlenden Daten für einen Teil der Nutzer zu extrapolieren. Eine einfache Hochrechnung würde dabei nicht dasselbe Ergebnis bringen, da sich das Verhalten nicht-erfasster Nutzer mit einer bestimmten Wahrscheinlichkeit vom Verhalten erfasster Nutzer unterscheidet. Das Verfahren bezieht deshalb auch die Informationen mit ein, die über die Nutzer bekannt sind. Dazu gehören z. B. die gekauften Produkte der einzelnen Transaktionen. Diese werden dann als Vorhersagevariablen, (sogenannte Prädiktoren) für die Zuordnung zu einem Kanal-genutzt.

Weitere Data-Science-Ansätze

Als nächsten logischen Schritt bietet es sich an, die oben genannte Leitfrage umzudrehen: Aus „Welches Werbemittel hat zum Verkauf geführt?” wird „Welches Werbemittel wird zum Verkauf führen?”.

Budget-Allocation-Modelle setzen auf das Attributionsmodell auf und können dabei helfen, eine Antwort zu geben. Für jeden einzelnen Kanal (oder gar jede Kampagne) werden der investierte Betrag und der erbrachte Ertrag mit einer bestimmten Frequenz erfasst (z. B. wöchentlich). Eine mathematische Funktion verbindet dann die einzelnen Datenpunkte möglichst genau über eine Kurve. Mittels dieser Kurve lässt sich mathematisch das optimale Verhältnis zwischen Kosten und Ertrag vorhersagen, aber auch verschenktes Potenzial bei zu niedriger Investition, abnehmender Grenznutzen bei zu hoher. Zusammengenommen kann so das optimale Marketing-Budget für alle Kanäle mathematisch ermittelt werden. Der große Mehrwert dieses Modells entsteht in Wechselwirkung mit anderen datengetriebenen Steuerungsinstrumenten und wenn es darum geht, das Bauchgefühl eines erfahrenen Marketers zu unterstützen.

Fazit

Die Zeiten, in denen sich Marketer blind auf Daten aus ihrem einen Tracking-Tool verlassen und alle Entscheidungen allein daraus ableiten konnten, sind vorbei. Die stark abnehmende Qualität der Tracking-Daten führt dazu, dass zunehmend weitere Systeme implementiert werden müssen, um die richtigen Entscheidungen zu treffen. Dazu gehört eine stabile Dateninfrastruktur, die dafür sorgt, dass Daten nicht verloren gehen und verschiedene Datentöpfe verknüpft werden können. Sofern diese vorhanden ist, können Instrumente implementiert werden, die mittels statistischer Verfahren helfen, die richtigen Annahmen zu treffen und ohne Turbulenzen durch Nebelfelder zu steuern. Guten Flug!

Img of Marco Szeidenleder

Marco Szeidenleder ist Managing Partner bei Pandata. Er ist Experte für die Vereinfachung komplexer Datenprobleme.

Kommentare

Olaf Brandt

Der Abschied vom Customer Journey Tracking fällt schwer, ist aber unumgänglich. Eine einfache Alternative bietet die Kampagnen-Steuerung auf Basis von einwilligungsfreiem Session Tracking gepaart mit Conversion-Indikatoren wie dem Engagement oder Micro-Conversions aus den direkten Besuchen – optional auch mit fortgeschrittenen Vorhersagemodellen.

Timo von Focht

Ein grundlegendes Problem der Attribution wie sie bisher erfolgt ist, dass sie nicht nur aufgrund des Wegfalls der Third-Party-Cookies sondern aus vielen anderen Gründen ungenau ist:

1.) Ungenaues Tracking durch fehlerhafte Implementierungen

2.) Bei einigen Analytics Lösungen werden die Daten gesampelt/ hochgerechnet

3.) Cross Device Informationen von Nutzern mit unterschiedlichen Endgeräten sind oft schwer zu erfassen

4.) Mobile Attribution bei Apps folgt anderen Regeln als im Web

5.) Oftmals wird nur der einmalige erste Umsatz (bei fortgeschrittenen Anwendern bestenfalls Deckungsbeiträge) für die Kalkulation verwendet, nicht aber der (prognostizierte) Customer Lifetime Value. Damit übersehen viele Unternehmen wertvolle Informationen für das zukünftige Business.

Philipp Spreer

Bei schlechter Datenqualität mit dem Finger auf die DSGVO zu zeigen und sich an den Symptomen abzuarbeiten, greift zu kurz. Wir sind mitten in einer Umbruchphase, in der die klassischen E-Commerce-Mechanismen der Reihe nach versagen. Der Funnel ist tot - die neue Maxime sind echte Kundenbeziehungen mit eindeutigen Datenpunkten! Dafür braucht es ein neues Denkmodell: "Relationship-Commerce". Denn den vollen Wert von Beziehungen verstehen wir erst in Zeiten der Datenarmut.

Martin Szugat

Die Suche nach dem Heiligen Gral des Online-Marketings - der Data-Driven Attribution - haben viele Marketer aufgegeben: DSGVO & Tracking-Blocker machen es rechtlich & technisch schwierig, das Verhalten auf Nutzerebene zu analysieren. Deshalb feiert die längst totgeglaubte ältere Schwester der Attribution bei vielen Unternehmen ein Comeback: das Marketing / Media Mix Modelling.