Website-Performance

Qualitätskontrolle im Online Business

Um eine Website professionell und damit überlebensfähig zu betreiben, ist die Anschaffung und Nutzung eines Web Content Management Systems nur der erste Schritt. Um erfolgreich zu sein, ist es notwendig, die Qualität des Angebots dauerhaft zu überprüfen. Inhaltlich erfolgt dies über Freigabeverfahren innerhalb des WCMS. Ein sehr wichtiger Aspekt ist jedoch auch die Erreichbarkeit und vor allem die Geschwindigkeit des Systems für den Benutzer: die Performance, genauer die Website Performance.

 

Website GAU. Wegen zu vielen Zugriffen ist die Seite nicht erreichbar.

Was ist Website Performance?

Der Begriff Website Performance ist nicht eindeutig definiert. Meist wird er jedoch verwendet, um Aussagen über die Ladezeit einer Website oder deren Verfügbarkeit zu machen. Im Internet Shopping Report 2001 ist nachzulesen, dass über die Hälfte aller Onlineshopper die zu lange Ladezeit der Website bemängeln. Damit steht dies Grund direkt hinter „Produkt nicht gefunden“ auf Rang 2 der häufigsten Probleme, die Benutzer beim Onlineeinkauf haben. Erst danach folgen Punkte, die sich wirklich mit dem genauen Inhalt der Seite auseinandersetzen. Hier liegt ein lange vernachlässigtes Problem des Internets: Auch wenn eine Seite bei allen Testläufen vor Ort gut und schnell erreichbar ist, ist nicht klar, wie sie wirklich beim Benutzer angezeigt wird. Der Grund dafür liegt darin, dass neben der Geschwindigkeit des WCMS und des Webserver selbst, noch diverse weitere Faktoren einwirken, die die Geschwindigkeit zwischen Benutzer und Server beeinflussen. Heutzutage leben Angebote im Internet jedoch von der dauerhaften, hochperformanten Verfügbarkeit. Besonders in Zeiten, in denen Werbekunden rar werden, ist es wichtig, hohen Qualitätsansprüchen gerecht zu werden.

 

Probleme beim Online-Einkauf (Quelle: Internet Shopping Report 2001, Symposium Publishing)

Weitere häufig auftretende Probleme:

  • Schlechte Anbindung des Webservers an das Internet
  • Zu geringe Dimensionierung des Servers (z.B. in der Ausstattung oder auch in der Anzahl
  • Lastprobleme, die verschiedene Ursachen haben können (z.B. Server an der Leistungsgrenze)
  • Peeringprobleme zwischen Providern
  • Langsame Verbindungen vom Provider zum Endkunden
  • Sehr große HTML Seiten oder Bilder oder viele kleine Elemente, die zusammen eine große Datenmenge ergeben.
  • Komplexe Java (o.ä.) Anwendungen

Wie man sieht, sind hier vor allem topologische Aspekte des Internets ein Problem: Eine Website kann von einem Provider sehr schnell abrufbar sein, von einem anderen dagegen aber praktisch gar nicht. Um solche Probleme und ihre Ursachen effektiv zu erkennen, werden ausgereift Messsysteme benötigt.

 

Topologische Aspekte des Internets

Performance messen

In der Regel werden drei Methoden verwendet, um Performance zu messen

1. Manuell

Die manuelle Messung beschreibt das Abrufen einer Seite unter Notierung der Abrufzeit, beispielsweise mit einer Stoppuhr. Im Besten Falle, findet diese Messung von verschiedenen Punkten des eigenen Netzes oder des Internets statt. Oft wird dies auch in Form von Benutzerumfragen durchgeführt. Diese Methode eignet sich für den professionellen Alltagseinsatz kaum. Weder können wirklich präzise Messergebnisse erzielt werden, noch ist es möglich, Probleme genauer zu bestimmen. Durch den hohen Personaleinsatz, den diese Messmethode verlangt, ist sie außerdem sehr teuer. Auch ist auf diesem Wege eine regelmäßige Messung und statistische Auswertung nur sehr bedingt möglich.

2. Software-unterstützt

Eine professionellere Art stellt die Software-unterstütze Messung dar. Hierbei wird auf verschiedenen Ebenen überprüft, wie schnell Systeme arbeiten. Dies sind Anwendungen auf dem Applikation Server, innerhalb der lokalen Netzwerkstruktur oder Monitoring Tools für die Datenbank und andere Teilsysteme. Leider können auf diesem Weg immer nur Ausschnitte der Gesamtperformance gemessen werden und dieses auch nur innerhalb der eigenen Infrastruktur. Diese Art der Messung ist auf jeden Fall notwendig, stellt jedoch alleine nicht sicher, dass die Website auch nach außen schnell erreichbar ist.

3. Verteiltes Messen durch ein Messsystem

Um aussagekräftige Messergebnisse zu erhalten, werden verteile Messverfahren angewandt. Verteilte Messverfahren arbeiten mit verschiedenen mit Software-Agenten, die an unterschiedlichen Messpunkten im Internet installiert sind. Diese Messstationen führen die eigentlichen Messungen durch. Auf eine Anfrage hin, starten die Messstationen jeweils von Ihrer Position im Internet aus, den Versuch, die zu messende Seite zu erreichen.

Nur auf diesem Wege lässt sich zuverlässig überprüfen, wie eine Webseite für den Besucher aus verschiedenen Teilen des Internets und über verschiedene Provider erreichbar ist.

Der Betrieb eines Netzwerks aus Messagenten ist sehr teuer, komplex und aufwendig. Aus diesem Grunde betreiben die meisten Anbieter nur wenige Messknoten im Internet und meist auf einen regionalen oder nationalen Raum begrenzt. Hinzu kommt, dass die meisten Anbieter in den USA lokalisiert sind und in Europa deshalb über keine oder nur wenige Messpunkte verfügen. Um jedoch aussagekräftige Messungen zu erhalten, müssen möglichst viele Messagenten aus möglichst vielen verschiedensten Teiles des Internets Messungen durchführen. Hierbei ist natürlich primär darauf zu achten, dass die Messungen aus den Teilen erfolgen, wo auch die meisten Besucher der Seite lokalisiert sind. Es reichen aber oft schon fünf bis zehn Messpunkte um primäre Probleme zu lokalisieren.

 

Schematische Darstellung eines verteilten Messsystems.

Messverfahren

Die Genauigkeit und Aussagekraft der Messung ist jedoch auch davon abhängig, welche Art von Messung durchgeführt wird. Bei einigen Anbietern lassen sich bis zu zehn verschiedene Verfahren finden. Die reine Verfügbarkeitsmessung und die Simulation eines ganzen Seitenabrufs sind wohl die beiden wichtigsten Messmethoden.

Verfügbarkeitsmessungen

Ist primär nur interessant, ob die Website oder ein bestimmter anderer Dienst (SMTP, FTP, etc.) überhaupt erreichbar ist, sind Verfügbarkeitsmessungen die geeignete Methode. Hierbei wird durch das Öffnen eines Ports auf dem zu messenden Server überprüft, ob dieser antwortet.

Ein Beispiel für Verfügbarkeitsmessungen ist beispielsweise das „Ping“ Kommando, dass von vielen Anbietern dazu genutzt wird. Ein „Ping „überprüft die Verfügbarkeit nur auf Netzwerkebene, die Port-Verfügbarkeit wie oben geschrieben, setzt eine Ebene höher an. Durch eine erfolgreiche „Ping“-Anfrage, ist nur sichergestellt, dass der Server nicht komplett ausgefallen ist. Es ist jedoch nicht sicher, dass der Server ordnungsgemäß und schnell arbeitet. Bei einer „echten“ Port-Verfügbarkeitsmessung kann zusätzlich festgestellt werden, ob ein Port (also beispielsweise der Webserver) funktioniert.

Verfügbarkeitsmessungen werden in regelmäßigen, kurzen Abständen durchgeführt. Oft kommen hier Intervalle von 5 bis 60 Minuten zum Einsatz. So kann die Verfügbarkeit eines Dienstes je nach Einstellung sehr detailliert verfolgt werden. Die Messung der Verfügbarkeit allein ist jedoch, wie schon erläutert, keine Garantie dafür, dass der Server auch in zufriedenstellender Geschwindigkeit erreicht werden kann und überhaupt ordnungsgemäß Seiten ausliefert.

Abruf einer Seite

Eine bessere Möglichkeit, um die Gesamtperformance einer Website zu messen, ist der Abruf einer kompletten Seite (üblicherweise der Startseite). Hierbei kann genau nachvollzogen werden, wie schnell der Abruf stattfindet und welche Performance Unterschiede aus verschiedenen Teiles des Internets existieren. Beim Abruf einer einzelnen Seite können alle Elemente getrennt gemessen werde. Hierbei kann neben der Verfügbarkeit und Ladezeit der einzelnen Teile (die ja auch auf verschiedenen Servern liegen können oder aus einer Datenbank generiert werden) auch genau gemessen werden, in welchem Abschnitt der Datenübertragung Geschwindigkeitsprobleme auftreten. Dies kann beispielsweise zeigen, dass gar nicht der Server an sich Geschwindigkeitsprobleme aufweist, sondern diese durch eine langsamen oder falsch konfigurierten Nameserver zu Stande kommen.

 

Abruf einer Seite, aufgeteilt in einzelne Objekte. Zu jedem Objekt ist die Ladezeit in verschiedene Segmente unterteilt.

Konzept zur Qualitätssicherung

Um Performance Metering sinnvoll einzusetzen, ist ein umfangreiches Konzept zur Qualitätssicherung, das verschiedene Komponenten vereint und Zuständigkeiten festlegt, elementar. Ohne eine Konzeption und damit verbundener regelmäßiger Auswertung der gesammelten Messdaten ist eine Messung mit wenig Erfolg verbunden. Die Auswertung der gesammelten Messdaten ist wichtig, da nur dadurch die genaue Ursache gefunden und der Fehler behoben werden kann. Nicht selten kommt es vor, dass auf Grundlage von gesammelten Daten eine eigene Taskforce initiiert wird, um die auftretenden Fehler genauer zu analysieren und einzugrenzen. Diese Dienstleistungen werden meist von den Anbietern direkt sowie von unabhängigen Beratungsunternehmen angeboten.

Zusammenfassung

Moderne Internetservices benötigen moderne Methoden zur Qualitätssicherung. Die Messung der Systemperformance mit einem verteilten Messsystem stellt einen großen Schritt zum sicheren Betrieb eines Webangebotes dar. Jedoch müssen die gewonnen Daten ausgewertet werden, um Schritte zur Lösung von vorhandenen Problemen zu finden.