Business Intelligence: Ursachenforschung als Alltagsgeschäft
Das Thema Business Intelligence erfreut sich CIO-Umfragen zufolge wachsender Beliebtheit: Der Ruf der Marktanalysten, das Beste aus vorhandenen Daten zu machen, tragen neben dem Effizienzdruck dazu bei, dass viele Unternehmen im nächsten Jahr in entsprechende IT-Projekte investieren wollen. Anders als beim Reporting, das bestenfalls dem kurzfristigen Erkennen von Problemen und der Kontrolle über deren Behebung dient, gehen BI-Anwendungen sehr viel weiter: Sie geben nicht nur über die Probleme, sondern auch über deren Ursachen Aufschluss, indem Daten aus unterschiedlichen Systemen zeitraumbezogen in einem Data Warehouse konsolidiert und intelligent miteinander in Beziehung gesetzt werden. BI-Werkzeuge bilden Informationen über Wertschöpfungs- und Prozessketten hinweg ab – auch deshalb stehen sie heute häufig in Verbindung mit Strategien wie CRM oder BPM (Business Process Management) und mit abteilungsübergreifenden Fragestellungen. Hinzu kommen neuerdings immer stärkere Ansprüche an das Data Warehouse als „Data Hub“ (Knotenpunkt), in dem alle Daten einmalig gesammelt, verwaltet und je nach ihrer Priorität früher oder später an andere Anwendungssysteme verteilt werden. Zum Thema BI gehört damit nicht mehr nur die Frage nach den „interessanten“ Daten, sondern auch nach deren Priorisierung. Der Fokus auf den „right time“-Ansatz zeigt sich in der Praxis meist als die pragmatischere Methode im Vergleich zum häufig diskutierten „real time“-Data Warehousing. Nicht alle Daten müssen in Echtzeit – aber alle Daten rechtzeitig zur Verfügung stehen, um den Entscheidungsprozess sinnvoll zu unterstützen.
In Business-Intelligence-Projekten stellt sich durch unterschiedliche Quellsysteme die Herausforderung, zunächst eigene Begrifflichkeiten in Form von Key-Performance-Indikatoren (KPI) zu ermitteln und deren Berechnung festzulegen. Um an dieses Wissen zu gelangen, hat sich die Etablierung eines fachlichen Pendants zum technischen Team bewährt. Dabei werden Mitarbeiter aus dem Anwenderunternehmen ins Boot geholt, die einerseits die technische Seite ausreichend durchschauen, andererseits mit ihrem jeweiligen Fach-Know-how die Lücke zwischen Usern und Technikern schließen. Dieses Erfolgsrezept ersetzt allerdings nicht die branchenspezifischen Prozesskenntnisse beim Dienstleister.
Neben den wachsenden Anforderungen an Datenmengen und Verarbeitungszeit ergeben sich bei BI-Projekten zudem erfahrungsgemäß immer wieder Herausforderungen im Bereich Datenqualität, ohne die eine BI-Lösung zum Scheitern verurteilt ist. Selbst gestandene User sind gespannt, wenn das Werkzeug in einem ersten Probelauf auf produktiven Daten einen Cube auswirft. Denn erst hier wird deutlich, wie gut oder schlecht die Daten aus den operativen Systemen tatsächlich sind und inwieweit sie zur Entscheidungsfindung herangezogen werden können. Resultate von BI-Werkzeugen sind nur so verlässlich und richtig, wie der Input, den sie bekommen. Datenqualität ist daher ein Thema, das dauerhaft kontrolliert und kontinuierlich verbessert werden muss. In der Praxis fließen rund 20 bis 30 Prozent der Maintenance-Kosten in die Erkennung und Verbesserung von unzulänglichen Daten. Bei BI-Vorhaben sollte das Thema die Datenqualität immer parallel zum IT-Projekt in den jeweiligen Fachstellen angegangen werden. Fachstellen müssen für die einzelnen Datenstrukturen und ihre Qualität verantwortlich gemacht werden und die einzelnen Anwender in den Fachabteilungen ein Bewusstsein dafür entwickeln, wie wichtig ihre Eingaben in den OLTP-Systemen (OnLine Transaction Processing) sind – und inwieweit fehlende oder falsche Eingaben Kosten oder Ungenauigkeiten verursachen.
Da im BI-Bereich eine Quantifizierung des Nutzens oft schwerfällt, haben es besonders mittelständische Unternehmen nicht ganz leicht bei einer Annäherung an das Thema. Als Lösung dieses Dilemmas hat sich eine als „ertragsorientierte BI“ bezeichnete Herangehensweise bewährt. Dabei wird der Vertrauensvorschuss, der durch die Entscheidung für eine BI-Initiative gegeben wird, rasch durch schrittweise Ergebnispräsentationen gedeckt, die dem Management sukzessive die gewonnenen Erkenntnisse vermittelt und daraus Entscheidungshilfen ableitet. Dazu gehört das Aufdecken von Schwachstellen, die ohne BI nicht sichtbar geworden wären und deren Beseitigung Ausgaben einspart oder eine Effizienzsteigerung ermöglicht. Häufig werden auch erste Schritte in Richtung BI als flankierende Maßnahmen zur Unterstützung neuer Kampagnen gemacht, denn hier werden im Rahmen der Neueinführung bereits KPI’s definiert, die dann mit entsprechender BI-Unterstützung kontrolliert und berichtet werden können. Nachdem in einem gemeinsamen Prozess alle Beteiligten die Ergebnisse aus Data Warehouse und BI als die einzige gemeinsame „Wahrheit“ definiert haben, entfällt das Gerangel um die „richtigen“ Zahlen. Deshalb zählt zu den wesentlichen Überzeugungsmomenten das Erlebnis, sich in Meetings nicht mehr mit unterschiedlichen Zahlen beispielsweise aus dem Finanzsystem einerseits und einer Excel-Kalkulation andererseits befassen zu müssen.
In Business-Intelligence-Projekten stellt sich durch unterschiedliche Quellsysteme die Herausforderung, zunächst eigene Begrifflichkeiten in Form von Key-Performance-Indikatoren (KPI) zu ermitteln und deren Berechnung festzulegen. Um an dieses Wissen zu gelangen, hat sich die Etablierung eines fachlichen Pendants zum technischen Team bewährt. Dabei werden Mitarbeiter aus dem Anwenderunternehmen ins Boot geholt, die einerseits die technische Seite ausreichend durchschauen, andererseits mit ihrem jeweiligen Fach-Know-how die Lücke zwischen Usern und Technikern schließen. Dieses Erfolgsrezept ersetzt allerdings nicht die branchenspezifischen Prozesskenntnisse beim Dienstleister.
Neben den wachsenden Anforderungen an Datenmengen und Verarbeitungszeit ergeben sich bei BI-Projekten zudem erfahrungsgemäß immer wieder Herausforderungen im Bereich Datenqualität, ohne die eine BI-Lösung zum Scheitern verurteilt ist. Selbst gestandene User sind gespannt, wenn das Werkzeug in einem ersten Probelauf auf produktiven Daten einen Cube auswirft. Denn erst hier wird deutlich, wie gut oder schlecht die Daten aus den operativen Systemen tatsächlich sind und inwieweit sie zur Entscheidungsfindung herangezogen werden können. Resultate von BI-Werkzeugen sind nur so verlässlich und richtig, wie der Input, den sie bekommen. Datenqualität ist daher ein Thema, das dauerhaft kontrolliert und kontinuierlich verbessert werden muss. In der Praxis fließen rund 20 bis 30 Prozent der Maintenance-Kosten in die Erkennung und Verbesserung von unzulänglichen Daten. Bei BI-Vorhaben sollte das Thema die Datenqualität immer parallel zum IT-Projekt in den jeweiligen Fachstellen angegangen werden. Fachstellen müssen für die einzelnen Datenstrukturen und ihre Qualität verantwortlich gemacht werden und die einzelnen Anwender in den Fachabteilungen ein Bewusstsein dafür entwickeln, wie wichtig ihre Eingaben in den OLTP-Systemen (OnLine Transaction Processing) sind – und inwieweit fehlende oder falsche Eingaben Kosten oder Ungenauigkeiten verursachen.
Da im BI-Bereich eine Quantifizierung des Nutzens oft schwerfällt, haben es besonders mittelständische Unternehmen nicht ganz leicht bei einer Annäherung an das Thema. Als Lösung dieses Dilemmas hat sich eine als „ertragsorientierte BI“ bezeichnete Herangehensweise bewährt. Dabei wird der Vertrauensvorschuss, der durch die Entscheidung für eine BI-Initiative gegeben wird, rasch durch schrittweise Ergebnispräsentationen gedeckt, die dem Management sukzessive die gewonnenen Erkenntnisse vermittelt und daraus Entscheidungshilfen ableitet. Dazu gehört das Aufdecken von Schwachstellen, die ohne BI nicht sichtbar geworden wären und deren Beseitigung Ausgaben einspart oder eine Effizienzsteigerung ermöglicht. Häufig werden auch erste Schritte in Richtung BI als flankierende Maßnahmen zur Unterstützung neuer Kampagnen gemacht, denn hier werden im Rahmen der Neueinführung bereits KPI’s definiert, die dann mit entsprechender BI-Unterstützung kontrolliert und berichtet werden können. Nachdem in einem gemeinsamen Prozess alle Beteiligten die Ergebnisse aus Data Warehouse und BI als die einzige gemeinsame „Wahrheit“ definiert haben, entfällt das Gerangel um die „richtigen“ Zahlen. Deshalb zählt zu den wesentlichen Überzeugungsmomenten das Erlebnis, sich in Meetings nicht mehr mit unterschiedlichen Zahlen beispielsweise aus dem Finanzsystem einerseits und einer Excel-Kalkulation andererseits befassen zu müssen.