Logbücher, Seitenaufrufe, Pagevisits

Hinweis: Artikel vom Juni 1999, überarbeitet Dez. 2010

Für die Ungeduldigen ein Kurzüberblick:

  • Um den Erfolg von Webseiten bewerten zu können werden die Webserver Logdateien ausgewertet.
  • Beim Aufruf einer Seite werden jedoch keine Personendaten Daten erfasst, die eventuell für das Marketing interessanter wären (Geschlecht, Beruf, Alter, Vermögen, Gehalt usw.)
  • Erfasst werden Datum, Uhrzeit, Seite / Dateityp, IP Adresse, Client Type, Betriebssystem usw.
  • Seitenaufruf (Page Impression) haben nur eine begrenzte Aussagekraft. Zuvor muss man die Logbücher prüfen und verstanden haben was ein Seitenaufruf ist.
  • Page Impressions (Synonyme: Page Views, PI, PV) werden oft beim Handel von Domains oder Projekten angeführt.
  • Der Domainname hat nur eine begrenzte Wirkung auf die Auffindbarkeit in Suchmaschinen.
  • Ein hoher Pagerank (PR) ist von Vorteil aber bedeutet nicht automatisch gut gefunden zu werden.
  • Lassen Sie sich vom Insider beim Domainkauf beraten. Sie sparen viel Geld das man sinnvoller einsetzen kann.

Logdateien (Webserver)

Bei der Analyse von Logbüchern ist es wichtig gewisse Grundbegriffe und Ihre Ursache zu verstehen. Allem voran kann man anhand eines Server Logbuches folgende Informationen nicht oder nur teilweise erhalten:

  • Personendaten des Besuchers (User), wie z. B. Name, Vorname, Geschlecht, Alter, Wohnort etc.
  • Häufigkeit der Wiederholungsbesuche eines User, soweit nicht über ein Cookie, Session oder andere Methode erfasst.
  • Anzahl der Personen die gleichzeitig Webseiten auf dem Monitor betrachten.

Von den bereitgestellten Informationen, sind für die wirtschaftlichen Erfolg folgende Parameter von Interesse:

  • Anzahl der Seitenaufrufe (Page Impressions)
  • Anzahl der Downloads von Dateien (soweit vorhanden)
  • Verweise von Suchmaschinen (woher sind die Besucher gekommen?)
  • Suchbegriffe die den Verweis auf die Seite brachte (welche Suchbegriffe waren die Ursache?)
  • Verweise von anderen Domains (Welche Links von anderen Webauftritten verursachten den Traffic?)
  • Anzahl der User die über die Startseite kommen
  • Die Entwicklung der Seitenaufrufe über die Zeitachse
  • die stärksten Seiten eines Web-Sites
  • Die Regionen (i. d. F. Netzbereiche) aus denen Besucher auf die Daten zugreifen.

Die Genauigkeit des oben genannten Zahlenmaterials hängt von einigen Faktoren ab, die diese beeinflussen:

Proxy Server


Im Internet werden häufig Proxy-Server aus verschiedenen Überlegungen eingesetzt. Diese Server speichern (cachen) häufig aufgerufene Seiten und stellen Sie dann dem Besucher wieder bereit.

Bsp.: Herr Muster wählt sich über t-online ein und ruft die Webseiten von www.kliggs.de auf. Bevor die Webseiten von dem KLIGGS Webserver direkt übermittelt werden (und damit im Logbuch eingetragen werden) prüft der t-online Proxy-Server, ob nicht die Daten schon zwischengespeichert wurden, weil auf diese Webpräsenz sehr häufig zugegriffen wird.

Handelt es sich z. B. um www.mercedes.de, werden die Daten sicherlich vom Proxy-Server kommen und nicht vom originalen Webserver, es erfolgt also kein Logbuch-Eintrag auf dem Webserver von www.mercedes.de

Bei Webpräsenzen, die schon einer stärkeren Frequenz unterliegen, ist die Möglichkeit höher das auch ein Teil der Informationen von diversen Proxy-Server bereitgestellt wird und daher nicht in der Auswertung erscheinen. Die Logbucheinträge stellen also eher ein Minimalwert dar.

Browser Cache


Moderne Web-Browser verfügen über einen frei konfigurierbaren Cache, der einmal aufgerufene Webseiten lokal auf der eigenen Festplatte zwischenspeichert.


Bsp.: Herr Muster hat sich soeben www.kliggs.de angeschaut, schaltet den Computer aus und geht Mittagessen. Später kommt sein Arbeitskollege und beide schauen sich www.kliggs.de an. In diesem Fall greift der Browser nicht auf den Server www.kliggs.de zu, also kein Eintrag im Logbuch sondern ruft die Daten aus seinem Browser-Cache auf.

 

Am nächsten Tag kommt Herr Muster in das Büro und zeigt auch seinem Chef www.kliggs.de - wieder erfolgt kein Logbucheintrag, außer Herr Muster hat den Browser-Cache gelöscht!


In diesem Fall wird das Zahlenmaterial mehrmals verfälscht. Zum einem hat Herr Muster drei mal die Webseiten angeschaut, es erfolgte jedoch nur ein Eintrag im Logbuch. Als wiederkehrender Besucher entfällt er also. Außerdem haben noch zwei weitere Personen (User) www.kliggs.de angeschaut.

Unbekannt jetzt auch welche Seiten angeschaut wurden. Gar kein Eintrag im Logbuch von www.kliggs.de erfolgt wenn der unter Punkt 1 beschriebene Fall vorliegt.

Page Impressions und Request

Auf Internet Seiten sieht man oft noch die steinzeitlich anmutenden Counter (Zähler). Manch astronomische Zahl verweist nicht auf die Anzahl der aufgerufenen Seiten sondern auf die Anzahl der übermittelten Dateien (bzw. Dateitypen). Noch viel weniger zeigen die Zähler die Anzahl der Besucher, denn dies ist schwierig möglich (wie vor aufgezeigt).


Bsp.: Herr Muster ruft die Startseite von www.kliggs.de auf und startet damit 21 Requests und damit auch 21 Logbuch Einträge. Es werden Bilddateien (.gif, .jpg) und Textdateien (.html, .css) übermittelt . Der unfaire Counter würde jetzt 21 sogenannte Hits zählen, was bei dem Laien den Eindruck erweckt 21 Besucher haben diese Seite gesehen. Der Faire Counter zählt ledigliche einen Seitenabruf, in diesem Fall die index.htm.

Die Anzahl der Request (hits) hat mehr Relevanz für den Serveradministrator. Wirtschaftlich interessanter ist die Anzahl der Seitenaufrufe und den damit erzielten Erfolg (Aufträge, Bestellungen, Kosten Subsitutionseffekt, Verbesserung Markenimage etc.).

Die Seitenaufrufe sind natürlich manipulierbar, z. B. klickt Herr Muster 10 mal auf Reload weil er ein technisches Problem hat.

Robots, Crawlers

Oft wird bei der Darstellung von sog. Page Impressions ein wichtiges Kriterium ausgelassen. Wer oder was hat den eigentlich die Webseite aufgerufen. Webangebote, die häufig von den vielen Tausend Webcrawler in Intervallen besucht werden rufen ja eine Webseite und deren Elemente genauso auf wie normale Besucher mit dem Browser.

Die "ehrliche" Logdateianalyse filtert daher die entsprechend irrelevanten Anfragen (Request) heraus um das Ergebnis nicht zu verfälschen.

Bsp.: Filter für gängige Webcrawler (Info für * Sternchenoperator)

 

IP-Adresse / IP-Adressraum

Soeben wurde besprochen, dass es sinnvoll erscheint Seitenaufrufe hinter den kein realer Besucher steht herauszufiltern. Aber wie sieht es aus mit den eigenen Mitarbeitern, die regelmässig den Onlineshop zur eigenen Recherche besuchen?

Vielleicht ist das Ziel der Logdateianalyse festzustellen, wieviel potentielle Kunden (idF. Besucher) waren auf meinen Webangebot. Um hier Verfälschungen zu vermeiden könnte man Seitenaufrufe um bestimmte IP Adressen filtern, soweit diese mit einer gewissen Präzision zugeordnet werden können.

Das Resultat wäre dann eine geringere Anzahl der Seitenaufrufe oder Besucher.

Fazit

Wenn man über die Methoden der Logdateianalyse nicht bescheid weiss, dann ist der Wert der Page Impressions oder Unique Visitors eine vage Angabe, die man aufwendig prüfen muss.

Für das korrekte Auswerten von Logbücher ist die Kenntnis über die Client - Server Kommunikation (HTTP) hilfreich. Ausserdem muss man sich selber Überblick verschaffen von dem eigenen Webauftritt. Bei vielen tausend Seiten kann das aufwendig werden.

Seit der starken Verbreitung von Redaktionssystemen werden Webseiten im Zeitablauf häufig geändert. Das kann wiederum erschwerend sein für die Beurteilung des Erfolgs der Webseiten.

Um hier den Überblick zu wahren bieten sich einige interessante Tools (Hilfsprogramme) an, die einem das Leben leichter machen können. Vorausgesetzt man versteht wie das Tool arbeitet. Da erscheint es sinnvoll über eine Testumgebung einige Funktionen via dem Browser zu prüfen anstatt im Echtzeitbetrieb im Diffusen sein.

Hier eine schöne Liste von Tools zu Auswertung des Website Traffic:

http://mashable.com/2009/01/12/track-online-traffic/

Mittlerweile gibt es eine Vielzahl von Methoden um sich recht gut an die reale Besucheranzahl einer Webpräsenz "heranzutasten". Dazu müssen aber die Methoden mit einem relative hohen Zeitaufwand implementiert und ausgewertet werden. Letztendlich hilft die beste Auswertung nichts, wenn daraus kein Maßnahmenkatalog abgeleitet wird.

Wird der Maßnahmenkatalog umgesetzt müssen die Auswertungen vorher und nachher verglichen werden. Auch diese benötigt relativ viel Zeit und überfordert schon die meisten Unternehmen ohne spezielle Abteilungen.

Aus unserer Erfahrung haben wir festgestellt, dass ab einem Aufkommen von ca. > 100.000 Seitenaufrufe p.m. die Menge der qualifizierten Anfragen überproportional steigt. Allein aus dieser Erkenntnis lohnt sich ein schlüssiges Internet Konzept aus Inhalten (Content), Webdesign und Suchmaschinenoptimierung.

Glossar

Abkürzung Englische Verwendung Deutsch Verwendung Übersetzung
PI (PV) Page Impression (Page View) Seitenaufruf Seitenaufruf
  Web Analytics Web Controlling Logdateianalyse
  Session Sitzung Sitzung
  Website Webauftritt Webauftritt, Webpräsenz, Webangebot
  Visitor (unique) Besucher  

Anmerkung: in der obigen Beschreibung wurde aus Vereinfachungsgründen immer von "ein Logbucheintrag" geschrieben.