Website Performance: Der messbare Augenblick
Was leistet eine Website? Diese Frage müssen sich Website-Betreiber regelmäßig stellen. Denn ob sie alle Funktionalitäten und Aufgaben erfüllt, schnell und ununterbrochen arbeitet sowie alle Nutzeranfragen umgehend ausführt entscheidet über den Erfolg der Website. Zu lange Antwortzeiten, geringe Verfügbarkeit, ein komplexer Seitenaufbau und fehlerhafte Verlinkungen verärgern den Online-Besucher, so dass die Conversion mit der Zeit sinkt und das Markenbild leidet. Es ergeben sich nachteilige psychologische Effekte, die sich auf das Nutzerverhalten auswirken. Ebenso leidet unter Umständen das Suchmaschinenranking, da diese Werte seit April 2010 von Google berücksichtigt werden.
Moderne Webseiten sind größtenteils komplexe Gebilde aus unterschiedlichen Ressourcen, die teilweise nicht einmal mehr der eigenen Kontrolle unterliegen. Die Verfügbarkeit und Gesamtantwortzeit einer Website setzt sich damit aus einer Vielzahl von Faktoren zusammen, die sich gegenseitig beeinflussen. Die ursprünglichen Konzepte von Server-Verfügbarkeit und Server-Antwortzeit tragen diesem Umstand nur sehr unzureichend Rechnung. Website-Betreiber stehen vor der Aufgabe, ihr Angebot in einer für den Nutzer sinnvollen Weise zu komprimieren und technisch zu optimieren.
Die Ladezeiten und Verfügbarkeit einer Website resultieren aus unterschiedlichen Einflussfaktoren und Hintergründen, die zu individuellen Nutzerreaktionen führen. Für die Bestimmung von für die Verfügbarkeit und Ladezeit notwendigen Daten stehen verschieden Systeme zur Verfügung. Diese dienen dann als Grundlage für spätere Optimierungsansätze, die wir Ihnen weiter unten genauer vorstellen.
Website-Performance: Was leistet ein Online-Angebot?
Langsame Websites frustrieren den Online-Nutzer. Von 2003 bis 2008 stieg die Größe einer durchschnittlichen Website von 93,7 KB auf 312 KB. Teilweise existieren sogar Websites, die eine Größe von 4 bis 10 MB aufweisen. Ein solcher Umfang überfordert sogar die beste Breitbandverbindung. Die Anzahl der angezeigten Objekte auf einer Website verdoppelte sich im selben Zeitraum auf durchschnittlich 49,9 Objekte. Jedes einzelne Objekt, von Bild über Video, von der Werbeanzeige bis zur Integration von sozialen Plattformen, muss geladen werden – und das braucht Zeit.
Die Performance einer Website ist ein wichtiger Ranking-Faktor im Suchmaschinenmarketing. Seit April 2010 berücksichtigt der Google-Algorithmus die Ladezeiten von Websites und zählt sie zu den 200 Ranking-Faktoren hinzu. Google misst die Ladegeschwindigkeit auf zwei Arten. Zum einen wird festgestellt, welche Auslieferungszeit zwischen der ersten Anfrage der Googlebots (Webcrawler) und der Auslieferung des letzten Bytes liegt. Zum anderen wird die Zeitspanne bis zur Auslieferung der gesamten Seite gemessen, einschließlich Grafiken, Werbebannern und JavaScript. Dieser Wert fließt in den Google-Algorithmus ein. Insbesondere die beiden letzten Punkte machen dabei bei modernen Webseiten einen signifikanten Anteil aus. Ist die Geschwindigkeit der Webseite nicht ausreichend kann diese von Suchanbietern eventuell nicht intensiv genug gecrawlt werden. Suchanbieter wie Google oder Bing setzen sich für ihre eigene Webseite gar 500 Millisekunden als Zielmarke. Website-Betreiber stehen somit vor neuen Herausforderungen.
Der Nutzer im Mittelpunkt: Psychologische Effekte
Die Geschwindigkeit einer Website hat großen Einfluss auf die Zufriedenheit des Nutzers. Das Internet präsentiert ein nahezu grenzenloses Angebot von Information und Unterhaltung. Wer nicht schnell genug anbietet verliert den gegenwärtigen Interessenten an einen Konkurrenten. Ein weiterer Effekt, der langfristig schwerwiegende Folgen verzeichnet: Das Markenbild leidet erheblich. Ein langsames und nicht zufrieden stellendes Online-Angebot vermittelt auf Dauer den Eindruck mangelnder Qualität. Die ästhetische Wahrnehmung leidet genauso wie die Glaubwürdigkeit des Angebots. Besonders neue Nutzer, die eine Website zum ersten Mal aufrufen, versuchen ihr Glück bei der ersten Enttäuschung nicht erneut. Sie bevorzugen das Angebot der Konkurrenz. Die Conversion-Rate sinkt, virale Effekte bleiben sowieso aus und der Nutzer behält nur eines in Erinnerung: Frustration.
Die Toleranz der Nutzer, auf die Ladezeit einer Website zu warten, ist mehr als begrenzt. Google fand gemeinsam mit Bing innerhalb einer Studie heraus, dass bei der Ladezeit einer Website oft Millisekunden über ihren weiteren Erfolg entscheiden. Selbst minimale Anpassungen der Antwortzeiten führten zu signifikanten Veränderungen. Als die Homepage von Google Maps von 100 KB auf 78 bis 80 KB reduziert wurde, stieg der Traffic innerhalb der ersten Woche um 10 Prozent und in den folgenden drei Wochen noch mal um 25 Prozent. Ein Test des Online-Händlers Amazon ergab ähnliche Ergebnisse. Jede Erhöhung der Ladezeit um 100 Millisekunden erzielte eine Verlaufssteigerung von einem Prozent. Experimente mit Microsoft und Live Search zeigten, dass die Verlangsamung von Suchergebnisseiten um eine Sekunde dazu führte, dass ein Prozent weniger Suchanfragen stattfanden und 1,5 Prozent weniger Werbeklicks verzeichnet wurden. Nachdem die Anzeigeschnelligkeit sogar um 2 Sekunden verschlechtert wurde, fielen die Suchanfragen um 2,5 Prozent und die Werbeklicks um 4,4 Prozent.
Auch eine noch so kurze Nichtverfügbarkeit der Seite wirkt sich stark negativ auf das Benutzerverhalten aus. Insbesondere eine langfristige Bindung des Besuchers an die Seite wird damit untergraben. Die Universität Toledo führte hierzu beispielsweise eine Untersuchung durch, die einen starken Zusammenhang zwischen Besucherloyalität und Verfügbarkeit der Webseite nachweisen konnte.
Ladezeit und Antwortzeit: Der technische Hintergrund
Die Ladezeit einer Website bemisst sich aus dem Moment, in dem ein Nutzer eine Website anfragt und in jenem, in dem die Seite vollständig im Browser angezeigt wird. Dieser in Millisekunden messbare Augenblick setzt sich aus verschiedenen Aktionen zusammen, welche jeweils einzeln optimiert werden können. Diese teilen sich grob in das Abrufen der zur Darstellung der Seite notwendigen Informationen von dem oder den Server(n) und der konkreten Darstellung der Seite innerhalb des Webbrowsers beim Besucher.
Eine wichtige Rolle beim Abruf der Seite spielt ein korrekt eingerichtetes Caching-Konzept auf dem Server. Dabei werden häufig je nach Ressourcentyp unterschiedliche Methoden eingesetzt. Manche der Ressourcen, wie etwa Bilder oder Javascript lassen sich durch Kompressionsverfahren weiter optimieren. Ebenso kann das Caching-Verhalten des Browsers beeinflusst und die Reihenfolge der zu ladenden Ressourcen angepasst werden, so dass eine möglichst große Parallelisierung der Abrufe möglich wird. Content Delivery Networks, d.h. eine verteilte Auslieferung der Ressourcen, stellen eine weitere Optimierungsmöglichkeit dar.
Der zweite Schritt innerhalb einer Webseiten-Anfrage besteht in der konkreten Darstellung der Seite innerhalb des Browsers. Eine moderne Webseite wird dabei durch ein komplexes Zusammenspiel von Javascript und diversen Medien aufgebaut. Die Berechnung dieser Elemente ist dementsprechend zeitaufwendig und schlägt sich in der Gesamtladezeit nieder.
Insbesondere eingebundene Werbebanner oder von externen Anbietern bereitgestellte Funktionalitäten sind genau zu untersuchen. Auch hier können durch eine intelligente Reihenfolge der Ausführung Ladezeiten optimiert werden. Ebenso lassen sich bestimmte Elemente der Seite eventuell erst in einem nachgelagerten Schritt laden, beispielsweise erst durch Scrollen von auf der Webseite erreichbarer Inhalte.
Aber auch die Struktur des Codes der eigenen Webseite kann in Bezug auf Geschwindigkeit optimiert werden. So lassen sich Bildgrößen, aber auch die Menge der notwendigen Ressourcen stark beeinflussen. Eventuell nicht auf allen Seiten benötigte Javascript-Dateien können entfernt oder Bilder als sogenannten Sprites (mehrere einzelne Grafiken werden zu einer einzigen Grafik zusammengefasst) erstellt werden.
Morgen wird alles anders: Methoden zur Performance-Messung
Ob die eigene Website performt lässt sich mit speziellen Performance-Tools untersuchen. Diese unterstützen die Messung der kombinierten Ladezeit aus Abruf der Ressourcen und konkreter Darstellung. Unter anderem ist zu beachten, dass der zukünftige Besucher der Webseite sich geographisch an einem ganz anderen Ort befinden und die Netzwerkanbindung zum jeweiligen Server deutlich langsamer sein kann. Ein Extrembeispiel ist etwa der Abruf der eigenen Firmenwebseite, die für den Online-Redakteur womöglich im direkt nebenan gelegenen Rechenzentrum liegt, während der potenzielle Besucher diese eventuell sogar von einem anderen Kontinent aus aufruft. Die entsprechenden Werkzeuge unterstützen solche Szenarien durch verteilte Netzwerke, die Ladezeiten von unterschiedlichen Punkten des Erdballs aus messen.
Ebenfalls müssen bei der Messung hinzugeladene interaktiver Funktionalitäten berücksichtigt werden. Hierzu zählen etwa sogenannte „Widgets“, deren Spektrum sich von der Börsenkursanzeige über Bildergalerien oder Terminkalender bis hin zu Social Media-Einbindungen wie Facebook, u.ä. erstreckt. Hier muss das Verhalten eines Webbrowsers bei der Messung eventuell simuliert werden, um das entsprechende Laufzeitverhalten eines Besuchers nachzuempfinden. Moderne Messwerkzeuge bieten hierzu auch die Möglichkeit komplette Benutzerinteraktionen zu simulieren.
Bei der Messung sollte darauf geachtet werden nicht etwa nur die Startseite oder eine kleine Untermenge der Seiten zu berücksichtigen. Vielmehr sollte zumindest eine repräsentative Auswahl an unterschiedlichen Seitentypen gemessen werden. Insbesondere Seiten mit hohem Interaktionsgrad sind besonders anfällig für lange Ladezeiten.
Wichtig ist auch eine Beobachtung der Ladezeit über einen gewissen Zeitraum. So muss beispielsweise überprüft werden, ob diese zu Stoßzeiten einbricht oder aufgrund von Änderungen an der Webseite Performance-Einbußen zu erkennen sind. Ideal sind hierbei automatisierte Benachrichtigungen bei Überschreiten festgelegter Grenzwerte.
Eine Performance-Messung sollte dabei kontinuierlich erfolgen und nicht etwa lediglich zum Launch einer Webseite. So können kleine Änderungen der Seite oder auch der Infrastruktur zu deutlichen Änderungen von Ladezeiten führen.
Alles im Blick: Verfügbarkeitsmessung und Ecosystem Monitoring
Die Verfügbarkeit der Webseite lässt sich durch entsprechende Tools überwachen. Diese bieten etwa automatisierte Benachrichtigungen von Ansprechpartnern via E-Mail und/oder SMS und liefern Statistiken über die Verfügbarkeit der einzelnen Seiten im Zeitablauf. Bei der Auswahl entsprechender Tools ist zu beachten, von welchen Standorten diese die Verfügbarkeitsmessungen durchführen. So mag etwa bei einem Tool, welches direkt im Rechenzentrum installiert wird, die Verfügbarkeit als positiv bewertet werden, eine korrekte Messung der Verfügbarkeit der Webseite für einen externen Besucher ist damit aber noch lange nicht gegeben.
Eine weitere Komplexität der Verfügbarkeitsmessung ist in der zunehmenden Aggregation von unterschiedlichen Inhalten innerhalb einzelner Webseiten begründet. Webseiten greifen häufig auf externe Systeme zurück, z.B. auf CRM-Systeme zur Darstellung von Kunden-Extranets oder PIM-Systeme für Produktdaten. Manche der Inhalte unterliegen dabei noch nicht einmal der eigenen Kontrolle. Dabei ist etwa die kurzfristige Nicht-Verfügbarkeit einer Werbeplattform (und damit fehlender Werbebanner) eventuell noch zu verschmerzen. Anders stellt sich etwa eine Content-Anlieferung über einen RSS-Feed dar, welcher die Startseite mit aktuellen News befüllt.
Die Überwachung eines solchen Ecosystems, dessen einzelnen Komponenten alle für die Verfügbarkeit der Webseite notwendig sind, stellt Überwachungstools vor neue Herausforderungen. So bestätigt die Aussage, dass die Produktübersichtsseite korrekt lädt nicht die Verfügbarkeit, wenn diese, aufgrund eines ausgefallenen PIM-Systems keinerlei Produktdaten anzeigt. Vielmehr müssen die beteiligten Systeme einzeln überwacht werden, um im Falle einer Nichtverfügbarkeit sofort die korrekten Ansprechpartner zu erreichen und das Problem beheben zu können. Ebenso müssen automatisierte Benachrichtigungen an die passenden Kontaktpersonen weitergeleitet werden.
Clever optimiert: Erste Schritte für eine bessere Performance
Wem die Verantwortung obliegt, die Performance eine Online-Auftritts zu messen, auszuwerten und zu verbessern, steht anfangs meist vor einem komplexen Optimierungsprozess. Um wirklich alle unterschiedlichen Einflussfaktoren zu erkennen und daraus die jeweiligen Nutzerreaktionen abzuleiten bedarf es Zeit, Sorgfalt und ein wachsames Auge.
Als Basis für die Performance-Messung ist der Einsatz eines flexiblen und aussagekräftigen Überwachungstools ratsam, dass auf die individuellen Ansprüche des Website-Betreibers angepasst ist. Ein ausführliches Website- und Performance-Reporting sowie die kontinuierliche Auswertung der sukzessiv optimierten Bestandteile der Website geben im Weiteren Aufschluss über die Verbesserung der Performance. Der Einbezug eines Performance-Experten ist in vielen Fällen ratsam, um besonders die technischen Finessen im Detail zu behandeln. Letztlich führen regelmäßige Nutzerbefragungen zu einem aufschlussreichen Gesamtbild der eigenen Website und informieren den Betreiber sehr individuell, wie zufrieden seine Besucher mit dem Online-Angebot sind.
Zeichen: 13.483
Wörter: 1.735
Weiterführende Links:
http://www.websiteoptimization.com/speed/tweak/page-speed-search-rankings/
http://www.websiteoptimization.com/speed/tweak/psychology-web-performance/
http://googlewebmastercentral.blogspot.com/2010/04/using-site-speed-in-web-search-ranking.html
http://www.iacis.org/jcis/pdf/Tarafdar_Zhang_48_2.pdf
Autoren:
Jan Eickmann, kernpunkt GmbH
Tanja Kiellisch, kernpunkt GmbH
Über die Autoren:
Jan Eickmann als Berater und Konzepter für die Kölner Internetagentur kernpunkt GmbH tätig. Im Bereich der Entwicklung ist er insbesondere verantwortlich für die Planung von Softwarearchitekturen und Systemkonzepten.
Tanja Kiellisch, Jahrgang 1980, ist studierte Medienkulturanalystin und als Marketingleitung für die Kölner Internetagentur kernpunkt GmbH tätig. Die thematischen Schwerpunkte in Ihrem Tätigkeitsbereich liegen in den Bereichen Social Marketing und Web 2.0, E-Commerce, Mobiles Internet, Suchmaschinenoptimierung, Web-Design sowie generelle Trends im Online-Marketing.
Moderne Webseiten sind größtenteils komplexe Gebilde aus unterschiedlichen Ressourcen, die teilweise nicht einmal mehr der eigenen Kontrolle unterliegen. Die Verfügbarkeit und Gesamtantwortzeit einer Website setzt sich damit aus einer Vielzahl von Faktoren zusammen, die sich gegenseitig beeinflussen. Die ursprünglichen Konzepte von Server-Verfügbarkeit und Server-Antwortzeit tragen diesem Umstand nur sehr unzureichend Rechnung. Website-Betreiber stehen vor der Aufgabe, ihr Angebot in einer für den Nutzer sinnvollen Weise zu komprimieren und technisch zu optimieren.
Die Ladezeiten und Verfügbarkeit einer Website resultieren aus unterschiedlichen Einflussfaktoren und Hintergründen, die zu individuellen Nutzerreaktionen führen. Für die Bestimmung von für die Verfügbarkeit und Ladezeit notwendigen Daten stehen verschieden Systeme zur Verfügung. Diese dienen dann als Grundlage für spätere Optimierungsansätze, die wir Ihnen weiter unten genauer vorstellen.
Website-Performance: Was leistet ein Online-Angebot?
Langsame Websites frustrieren den Online-Nutzer. Von 2003 bis 2008 stieg die Größe einer durchschnittlichen Website von 93,7 KB auf 312 KB. Teilweise existieren sogar Websites, die eine Größe von 4 bis 10 MB aufweisen. Ein solcher Umfang überfordert sogar die beste Breitbandverbindung. Die Anzahl der angezeigten Objekte auf einer Website verdoppelte sich im selben Zeitraum auf durchschnittlich 49,9 Objekte. Jedes einzelne Objekt, von Bild über Video, von der Werbeanzeige bis zur Integration von sozialen Plattformen, muss geladen werden – und das braucht Zeit.
Die Performance einer Website ist ein wichtiger Ranking-Faktor im Suchmaschinenmarketing. Seit April 2010 berücksichtigt der Google-Algorithmus die Ladezeiten von Websites und zählt sie zu den 200 Ranking-Faktoren hinzu. Google misst die Ladegeschwindigkeit auf zwei Arten. Zum einen wird festgestellt, welche Auslieferungszeit zwischen der ersten Anfrage der Googlebots (Webcrawler) und der Auslieferung des letzten Bytes liegt. Zum anderen wird die Zeitspanne bis zur Auslieferung der gesamten Seite gemessen, einschließlich Grafiken, Werbebannern und JavaScript. Dieser Wert fließt in den Google-Algorithmus ein. Insbesondere die beiden letzten Punkte machen dabei bei modernen Webseiten einen signifikanten Anteil aus. Ist die Geschwindigkeit der Webseite nicht ausreichend kann diese von Suchanbietern eventuell nicht intensiv genug gecrawlt werden. Suchanbieter wie Google oder Bing setzen sich für ihre eigene Webseite gar 500 Millisekunden als Zielmarke. Website-Betreiber stehen somit vor neuen Herausforderungen.
Der Nutzer im Mittelpunkt: Psychologische Effekte
Die Geschwindigkeit einer Website hat großen Einfluss auf die Zufriedenheit des Nutzers. Das Internet präsentiert ein nahezu grenzenloses Angebot von Information und Unterhaltung. Wer nicht schnell genug anbietet verliert den gegenwärtigen Interessenten an einen Konkurrenten. Ein weiterer Effekt, der langfristig schwerwiegende Folgen verzeichnet: Das Markenbild leidet erheblich. Ein langsames und nicht zufrieden stellendes Online-Angebot vermittelt auf Dauer den Eindruck mangelnder Qualität. Die ästhetische Wahrnehmung leidet genauso wie die Glaubwürdigkeit des Angebots. Besonders neue Nutzer, die eine Website zum ersten Mal aufrufen, versuchen ihr Glück bei der ersten Enttäuschung nicht erneut. Sie bevorzugen das Angebot der Konkurrenz. Die Conversion-Rate sinkt, virale Effekte bleiben sowieso aus und der Nutzer behält nur eines in Erinnerung: Frustration.
Die Toleranz der Nutzer, auf die Ladezeit einer Website zu warten, ist mehr als begrenzt. Google fand gemeinsam mit Bing innerhalb einer Studie heraus, dass bei der Ladezeit einer Website oft Millisekunden über ihren weiteren Erfolg entscheiden. Selbst minimale Anpassungen der Antwortzeiten führten zu signifikanten Veränderungen. Als die Homepage von Google Maps von 100 KB auf 78 bis 80 KB reduziert wurde, stieg der Traffic innerhalb der ersten Woche um 10 Prozent und in den folgenden drei Wochen noch mal um 25 Prozent. Ein Test des Online-Händlers Amazon ergab ähnliche Ergebnisse. Jede Erhöhung der Ladezeit um 100 Millisekunden erzielte eine Verlaufssteigerung von einem Prozent. Experimente mit Microsoft und Live Search zeigten, dass die Verlangsamung von Suchergebnisseiten um eine Sekunde dazu führte, dass ein Prozent weniger Suchanfragen stattfanden und 1,5 Prozent weniger Werbeklicks verzeichnet wurden. Nachdem die Anzeigeschnelligkeit sogar um 2 Sekunden verschlechtert wurde, fielen die Suchanfragen um 2,5 Prozent und die Werbeklicks um 4,4 Prozent.
Auch eine noch so kurze Nichtverfügbarkeit der Seite wirkt sich stark negativ auf das Benutzerverhalten aus. Insbesondere eine langfristige Bindung des Besuchers an die Seite wird damit untergraben. Die Universität Toledo führte hierzu beispielsweise eine Untersuchung durch, die einen starken Zusammenhang zwischen Besucherloyalität und Verfügbarkeit der Webseite nachweisen konnte.
Ladezeit und Antwortzeit: Der technische Hintergrund
Die Ladezeit einer Website bemisst sich aus dem Moment, in dem ein Nutzer eine Website anfragt und in jenem, in dem die Seite vollständig im Browser angezeigt wird. Dieser in Millisekunden messbare Augenblick setzt sich aus verschiedenen Aktionen zusammen, welche jeweils einzeln optimiert werden können. Diese teilen sich grob in das Abrufen der zur Darstellung der Seite notwendigen Informationen von dem oder den Server(n) und der konkreten Darstellung der Seite innerhalb des Webbrowsers beim Besucher.
Eine wichtige Rolle beim Abruf der Seite spielt ein korrekt eingerichtetes Caching-Konzept auf dem Server. Dabei werden häufig je nach Ressourcentyp unterschiedliche Methoden eingesetzt. Manche der Ressourcen, wie etwa Bilder oder Javascript lassen sich durch Kompressionsverfahren weiter optimieren. Ebenso kann das Caching-Verhalten des Browsers beeinflusst und die Reihenfolge der zu ladenden Ressourcen angepasst werden, so dass eine möglichst große Parallelisierung der Abrufe möglich wird. Content Delivery Networks, d.h. eine verteilte Auslieferung der Ressourcen, stellen eine weitere Optimierungsmöglichkeit dar.
Der zweite Schritt innerhalb einer Webseiten-Anfrage besteht in der konkreten Darstellung der Seite innerhalb des Browsers. Eine moderne Webseite wird dabei durch ein komplexes Zusammenspiel von Javascript und diversen Medien aufgebaut. Die Berechnung dieser Elemente ist dementsprechend zeitaufwendig und schlägt sich in der Gesamtladezeit nieder.
Insbesondere eingebundene Werbebanner oder von externen Anbietern bereitgestellte Funktionalitäten sind genau zu untersuchen. Auch hier können durch eine intelligente Reihenfolge der Ausführung Ladezeiten optimiert werden. Ebenso lassen sich bestimmte Elemente der Seite eventuell erst in einem nachgelagerten Schritt laden, beispielsweise erst durch Scrollen von auf der Webseite erreichbarer Inhalte.
Aber auch die Struktur des Codes der eigenen Webseite kann in Bezug auf Geschwindigkeit optimiert werden. So lassen sich Bildgrößen, aber auch die Menge der notwendigen Ressourcen stark beeinflussen. Eventuell nicht auf allen Seiten benötigte Javascript-Dateien können entfernt oder Bilder als sogenannten Sprites (mehrere einzelne Grafiken werden zu einer einzigen Grafik zusammengefasst) erstellt werden.
Morgen wird alles anders: Methoden zur Performance-Messung
Ob die eigene Website performt lässt sich mit speziellen Performance-Tools untersuchen. Diese unterstützen die Messung der kombinierten Ladezeit aus Abruf der Ressourcen und konkreter Darstellung. Unter anderem ist zu beachten, dass der zukünftige Besucher der Webseite sich geographisch an einem ganz anderen Ort befinden und die Netzwerkanbindung zum jeweiligen Server deutlich langsamer sein kann. Ein Extrembeispiel ist etwa der Abruf der eigenen Firmenwebseite, die für den Online-Redakteur womöglich im direkt nebenan gelegenen Rechenzentrum liegt, während der potenzielle Besucher diese eventuell sogar von einem anderen Kontinent aus aufruft. Die entsprechenden Werkzeuge unterstützen solche Szenarien durch verteilte Netzwerke, die Ladezeiten von unterschiedlichen Punkten des Erdballs aus messen.
Ebenfalls müssen bei der Messung hinzugeladene interaktiver Funktionalitäten berücksichtigt werden. Hierzu zählen etwa sogenannte „Widgets“, deren Spektrum sich von der Börsenkursanzeige über Bildergalerien oder Terminkalender bis hin zu Social Media-Einbindungen wie Facebook, u.ä. erstreckt. Hier muss das Verhalten eines Webbrowsers bei der Messung eventuell simuliert werden, um das entsprechende Laufzeitverhalten eines Besuchers nachzuempfinden. Moderne Messwerkzeuge bieten hierzu auch die Möglichkeit komplette Benutzerinteraktionen zu simulieren.
Bei der Messung sollte darauf geachtet werden nicht etwa nur die Startseite oder eine kleine Untermenge der Seiten zu berücksichtigen. Vielmehr sollte zumindest eine repräsentative Auswahl an unterschiedlichen Seitentypen gemessen werden. Insbesondere Seiten mit hohem Interaktionsgrad sind besonders anfällig für lange Ladezeiten.
Wichtig ist auch eine Beobachtung der Ladezeit über einen gewissen Zeitraum. So muss beispielsweise überprüft werden, ob diese zu Stoßzeiten einbricht oder aufgrund von Änderungen an der Webseite Performance-Einbußen zu erkennen sind. Ideal sind hierbei automatisierte Benachrichtigungen bei Überschreiten festgelegter Grenzwerte.
Eine Performance-Messung sollte dabei kontinuierlich erfolgen und nicht etwa lediglich zum Launch einer Webseite. So können kleine Änderungen der Seite oder auch der Infrastruktur zu deutlichen Änderungen von Ladezeiten führen.
Alles im Blick: Verfügbarkeitsmessung und Ecosystem Monitoring
Die Verfügbarkeit der Webseite lässt sich durch entsprechende Tools überwachen. Diese bieten etwa automatisierte Benachrichtigungen von Ansprechpartnern via E-Mail und/oder SMS und liefern Statistiken über die Verfügbarkeit der einzelnen Seiten im Zeitablauf. Bei der Auswahl entsprechender Tools ist zu beachten, von welchen Standorten diese die Verfügbarkeitsmessungen durchführen. So mag etwa bei einem Tool, welches direkt im Rechenzentrum installiert wird, die Verfügbarkeit als positiv bewertet werden, eine korrekte Messung der Verfügbarkeit der Webseite für einen externen Besucher ist damit aber noch lange nicht gegeben.
Eine weitere Komplexität der Verfügbarkeitsmessung ist in der zunehmenden Aggregation von unterschiedlichen Inhalten innerhalb einzelner Webseiten begründet. Webseiten greifen häufig auf externe Systeme zurück, z.B. auf CRM-Systeme zur Darstellung von Kunden-Extranets oder PIM-Systeme für Produktdaten. Manche der Inhalte unterliegen dabei noch nicht einmal der eigenen Kontrolle. Dabei ist etwa die kurzfristige Nicht-Verfügbarkeit einer Werbeplattform (und damit fehlender Werbebanner) eventuell noch zu verschmerzen. Anders stellt sich etwa eine Content-Anlieferung über einen RSS-Feed dar, welcher die Startseite mit aktuellen News befüllt.
Die Überwachung eines solchen Ecosystems, dessen einzelnen Komponenten alle für die Verfügbarkeit der Webseite notwendig sind, stellt Überwachungstools vor neue Herausforderungen. So bestätigt die Aussage, dass die Produktübersichtsseite korrekt lädt nicht die Verfügbarkeit, wenn diese, aufgrund eines ausgefallenen PIM-Systems keinerlei Produktdaten anzeigt. Vielmehr müssen die beteiligten Systeme einzeln überwacht werden, um im Falle einer Nichtverfügbarkeit sofort die korrekten Ansprechpartner zu erreichen und das Problem beheben zu können. Ebenso müssen automatisierte Benachrichtigungen an die passenden Kontaktpersonen weitergeleitet werden.
Clever optimiert: Erste Schritte für eine bessere Performance
Wem die Verantwortung obliegt, die Performance eine Online-Auftritts zu messen, auszuwerten und zu verbessern, steht anfangs meist vor einem komplexen Optimierungsprozess. Um wirklich alle unterschiedlichen Einflussfaktoren zu erkennen und daraus die jeweiligen Nutzerreaktionen abzuleiten bedarf es Zeit, Sorgfalt und ein wachsames Auge.
Als Basis für die Performance-Messung ist der Einsatz eines flexiblen und aussagekräftigen Überwachungstools ratsam, dass auf die individuellen Ansprüche des Website-Betreibers angepasst ist. Ein ausführliches Website- und Performance-Reporting sowie die kontinuierliche Auswertung der sukzessiv optimierten Bestandteile der Website geben im Weiteren Aufschluss über die Verbesserung der Performance. Der Einbezug eines Performance-Experten ist in vielen Fällen ratsam, um besonders die technischen Finessen im Detail zu behandeln. Letztlich führen regelmäßige Nutzerbefragungen zu einem aufschlussreichen Gesamtbild der eigenen Website und informieren den Betreiber sehr individuell, wie zufrieden seine Besucher mit dem Online-Angebot sind.
Zeichen: 13.483
Wörter: 1.735
Weiterführende Links:
http://www.websiteoptimization.com/speed/tweak/page-speed-search-rankings/
http://www.websiteoptimization.com/speed/tweak/psychology-web-performance/
http://googlewebmastercentral.blogspot.com/2010/04/using-site-speed-in-web-search-ranking.html
http://www.iacis.org/jcis/pdf/Tarafdar_Zhang_48_2.pdf
Autoren:
Jan Eickmann, kernpunkt GmbH
Tanja Kiellisch, kernpunkt GmbH
Über die Autoren:
Jan Eickmann als Berater und Konzepter für die Kölner Internetagentur kernpunkt GmbH tätig. Im Bereich der Entwicklung ist er insbesondere verantwortlich für die Planung von Softwarearchitekturen und Systemkonzepten.
Tanja Kiellisch, Jahrgang 1980, ist studierte Medienkulturanalystin und als Marketingleitung für die Kölner Internetagentur kernpunkt GmbH tätig. Die thematischen Schwerpunkte in Ihrem Tätigkeitsbereich liegen in den Bereichen Social Marketing und Web 2.0, E-Commerce, Mobiles Internet, Suchmaschinenoptimierung, Web-Design sowie generelle Trends im Online-Marketing.