ITK-Marktzahlen und ihre Verlässlichkeit
Der Hunger nach Zahlen ist groß im ITK-Markt. Ob bei Fachkonferenzen, Vorstandsmeetings oder Kundenterminen – vieldeutige Prozentzahlen, verpackt in formschönen Grafiken, gehören zur Grundausstattung. Dies ist auch verständlich, denn im dynamischen IT-Umfeld ist Marktwissen ein Wettbewerbsfaktor. Informationen, die dieses Wissen unterstützen, sind damit heiß begehrt. Schließlich müssen Akteure – Anbieter wie Nachfrager – strategische Entscheidungen treffen und Investitionen planen – und dies trotz rasanter Technologieentwicklung und schnell wechselnder Kundenbedürfnisse.
Wo es so viele hungrige Mäuler gibt, da lohnt sich das Kochen. So bietet das ITK-Zahlengeschäft Analysten, Beratern und Marktforschern eine wichtige Erlösquelle. Für die ITK-Anbieter ist das Generieren von Marktzahlen ein geeignetes Mittel, die Bedürfnisse ihrer Zielgruppe besser zu verstehen und darüber hinaus Presseaufmerksamkeit zu erzielen und Leads zu generieren. Angesichts der Vielzahl an Zahlenproduzenten ist es kein Wunder, dass die Fachpresse prall gefüllt ist mit aktuellen Statistiken. Wer sich von diesem reichhaltigen Buffet bedienen will, der sollte jedoch auf die Zutaten achten.
Denn neben vielen qualitativ hochwertigen Angeboten gibt es auch einige Ausreißer, die für seriöse Investitionsrechnungen, Strategieentscheidungen oder Marktanalysen unbrauchbar oder – um im Kochjargon zu bleiben – ungenießbar und eigentlich ein Fall für die Lebensmittelaufsicht sind. Eine solche Kontrollbehörde gibt es jedoch im Studienmarkt bislang noch nicht. Umso kritischer sollten die Unternehmen mit den Zahlenangeboten umgehen. Dazu müssen sie nicht zwingend ein mehrjähriges Statistikstudium absolvieren. Um die Spreu vom Weizen zu trennen, reicht es manchmal schon aus, einige Indikatoren genauer zu betrachten.
Vorweg gesagt: Die perfekte Statistik gibt es nicht. Marktforschung ist immer auch eine Kunst des Machbaren, die – wie in jedem anderen Geschäft auch – zwischen Nutzen und Kosten abwägen muss. Umso wichtiger ist es, dass Anbieter von Studienergebnissen offen mit Hintergrundinformationen zur Befragung umgehen. Wer in die Welt hinausposaunt, dass 27,276 Prozent der deutschen Unternehmen die Technologie XYZ nutzen oder der Markt um 2,32 Prozent wachsen wird, der muss auch offen legen, wie er zu diesem Ergebnis gelangt.
Adressaten solcher Aussagen haben ein Recht auf Angaben zu Größe, Zusammensetzung und Repräsentativität der Stichprobe sowie zur Methodik der Befragung. Wenn diese Angaben fehlen, dann ist die veröffentlichte Statistik das Papier nicht wert, auf das sie gedruckt wurde. Nun werden nicht immer alle diese Angaben in eine knackige Pressemitteilung passen. Sie sind aber ein obligatorischer Teil von seriös erstellten Studien, die zum Kauf oder kostenlosen Download angeboten werden. Denn diese Informationen sind wesentlich für die Brauchbarkeit der Marktzahlen.
So ist der Umfang der Stichprobe ein erster Indikator für die Zuverlässigkeit der Ergebnisse. Wer auf Basis von 20 Befragungen Schlüsse für den Gesamtmarkt zieht und diese Aussagen als statistisch relevant mit Prozentwerten im Dezimalbereich kennzeichnet, der handelt entweder grob fahrlässig oder will die Adressaten dieser Botschaft für dumm verkaufen. Zwar können in manchen Marktsegmenten 20 Beobachtungen einen Mehrwert zu aktuell bekannten Wissen bringen. In diesem Fall sollte der Zahlenlieferant aber auf die statistische Unsicherheit hinweisen und diese auch bei Analyse und Präsentation der Ergebnisse berücksichtigen.
Umgekehrt sollte man sich aber auch nicht von riesigen Zahlen zur Größe der Stichprobe täuschen lassen. Denn um Aussagen für einzelne Gruppen (z.B. Unternehmen mit einer bestimmten Größe in einem Land) mit hinreichender Zuverlässigkeit zu treffen, braucht es keine x-Tausend Beobachtungen. Ein Stichprobenumfang von 50-100 Beobachtungen für eine Befragungsgruppe gilt bei vielen Marktforschern als Minimum für die Ausweisung von Ergebnissen. Natürlich sind nach oben hin keine Grenzen gesetzt. Der Zugewinn an Sicherheit (d.h., die verringerte Schwankungsbreite der Stichprobenergebnisse um den wahren Wert) durch einen größeren Stichprobenumfang ist jedoch eher gering – insbesondere wenn man ihn im Verhältnis zu den Mehrkosten der Befragung betrachtet.
Zahlen zum deutschen Markt für IT Services:
IT Services 2006 -- Preise und Verträge im deutschen IT-Dienstleistungsmarkt (04/2006)
Der Berlecon-Report analysiert aktuelle Entwicklungen bei Preisen und Verträgen im IT-Dienstleistungsmarkt. Erzielte Tagessätze in 2005 und erwartete Preisentwicklung für 2006 und 2007. Abrechnungsmodelle und Maßnahmen zur Qualitätssicherung, Erwartungen für die wirtschaftliche Entwicklung, Auswirkungen von Offshore-Angeboten und Bedeutung verschiedener Kundengruppen.
Preis: 580,00 € netto, Small Business Edition (Einzelplatzlizenz, PDF-Version).
Weitere Informationen und Inhaltsverzeichnis
Bestellformular
Wenn Studienanbieter also von Befragungen unter mehreren tausend Unternehmen sprechen, dann ist in vielen Fällen Vorsicht angebracht. So ist es eine beliebte Praxis im statistischen Graumarkt, nicht die Anzahl der Beobachtungen, sondern die Anzahl der Befragten anzugeben: "Eine Befragung unter xxxtausend deutschen Unternehmen hat ergeben, dass...". Bei genauerem Hinschauen erweist sich dann häufig, dass zwar mehrere Tausend Unternehmen befragt wurden, jedoch nur ein kleiner Teil dieser Unternehmen tatsächlich auch geantwortet hat. Diese Art der Ergebnispräsentation hat mit seriöser Statistik nichts zu tun.
Als weiteren Indikator für die Brauchbarkeit der Zahlen empfiehlt es sich, das Design der Befragung genauer unter die Lupe zu nehmen. Denn die Qualität der Aussagen ist nur so gut wie die Qualität der Befragten, die Repräsentativität der Stichprobe und die Befragungsmethodik selbst. Aufschluss über die Ergebnisse bietet die Beantwortung kritischer Fragen wie: Inwieweit sind die Befragten in der Lage, die gestellten Fragen zu beantworten? Inwieweit ist die Zusammensetzung der Stichprobe nach Merkmalen wie Unternehmensgröße und Branchenzusammensetzung tatsächlich repräsentativ für die zu treffenden Aussagen? Und inwieweit ist das Befragungsverfahren geeignet, die Qualität der Aussagen zu unterstützen?
Qualifizierte Informationen bei wirklichen Entscheidungsträgern zu sammeln und dabei auch Gruppen zu berücksichtigen, die selbst kein großes Interesse an einer Teilnahme entwickeln, ist Knochenarbeit und kostet richtig Geld. Die aktuell in Mode gekommenen Meinungsumfragen im Internet sind ein geeignetes Mittel, um zeitnah und kostengünstig Stimmungen zu erfassen. Sie taugen jedoch kaum als Grundlage für seriöse Investitionspläne oder als Basis für Benchmarks. Denn diese Art der Erhebung bietet nur wenig Kontrolle über die Zusammensetzung der Stichprobe und die Qualität der Antworten.
Qualitativ schlechte Statistiken bringen weder für die Kunden noch für die Anbieter der Marktzahlen einen Mehrwert. Für Erstere erhöht sich das Risiko, Entscheidungen auf Basis falscher Annahmen zu treffen und damit bares Geld zu verlieren. Letztere spielen mit Ihrem Ruf. Denn eine schlechte Studienqualität wirkt auch bei der Wahrnehmung weiterer Angebote negativ nach. Aus der kurzfristigen Erzielung von Presseaufmerksamkeit kann so schnell ein Reputationsverlust hervorgehen. Und der wirkt langfristig.
Bei Berlecon Research gehört die Unterstützung von Unternehmen bei Konzeption, Durchführung und Auswertung von statistischen Erhebungen zum Kerngeschäft. Ein Reputationsverlust in diesem Feld würde unser Geschäft gefährden. Für die Qualität von statistischen Erhebungen sowie den ehrlichen und verantwortlichen Umgang mit Informationen stehen wir mit unserem Namen.
Andreas Stiehler (as@berlecon.de)