Meine Erfahrung mit vorgefertigten Lösungen ist, dass sie falsche oder irrelevante Daten liefern.
Wichtig erscheint mir, dass man keine Requests betreibt, um zu Daten zu gelangen (aktives Tracking). Denn dies verfälscht doch eher die Wahrheit über Zugriffe, als dass es dienlich ist.
Für mich persönlich verwende ich ein selbst geschriebenes Perl Tool, um Probleme zu erfassen.
Für das aktuelle CMS habe ich ein sehr vereinfachtes Access-Log integriert, welches nur die öffentlichen Content-URLs logged, nicht aber irgendwelche Ressourcen wie JS, CSS oder Bilder zählt.
Ein einfaches Analysetool zeigt für einen ausgewählten Zeitraum Statistiken für User-Agents, Hosts/IPs und Referer-Domains, aber auch Rohdaten können abgefragt werden.
Die Analyse lässt zum Beispiel einen schnellen Einblick zu, ob Gäste weiter klicken, das heisst, weitere Seiten verlangen. Es gibt aber derzeit noch kein Konzept von einem Visit und damit Entry- und Exit-Page.
Die Analyse berücksichtigt auch Status-Code, so kann kontrolliert werden, dass Robots zum Beispiel richtig bedient werden bei geschützten Seiten.
Verschiedene Filtermechanismen wurden implementiert.
Damit die Daten keine Ressourcen fressen wird das File regelmässig auf die letzten 30 Tage gekürzt. Es ist also nicht für irgendwelche lang andauernde Beobachtungen vorgesehen, erlaubt aber den sofortigen Überblick über kurzfristige Linkwerbung wie diesen hier.
mfg Beat