Robert Bienert: Webserverstatistikauswertung - besseres als webalizer gesucht

Beitrag lesen

'Abend Robert,

Oh, schon wieder Mittag.

ach so. Das heißt - was "bist" du jetzt? Also was ist dein Beruf?

Ich habe jetzt (frisch) den Bildungsgang zum MaTA abgeschlossen, d.h. ich bin offiziell "Staatlich geprüfter Mathematisch Technischer Assistent". Die Ausbildung ist vom Umfang der Inhalte her im Vergleich zum Fachinformatiker eher "akademisch" ausgerichtet und dauert nur ein Jahr. Ich kann jetzt damit im Softwarebereich als Programmierer arbeiten, je nach Kenntnisstand des jeweiligen Absolventen aber auch als Admin, Netzwerker, ... oder halt selbstständig machen, die nötigen juristischen Feinheiten (Handelsrecht, Privatrecht) kenne ich. Der Chef meines Praktikumsbetriebes schätzt den MaTA vom Grad der Ausbildung her sogar über dem Fachinformatiker ein.

Nö, da bin ich schon eher für http://www.anybrowser.org/.

jo, meinte ich ja. Nur habe ich ein Mozillalogo gesucht, und nix gefunden (nichts richtiges), sodass ich einfach mal das erstbeste, was google auf "Mozilla logo" ausspuckt, hier als [image] verlinkt habe ;-)

Das mit dem image "Tag" muss ich mir merken.

Ansonsten ist Mozilla neben Opera auch mein Favorit, <Best viewed with any browser> passt natürlich hervorragend zu meiner Gesamteinstellung (Design=CSS, klar, und dass möglichst für alle/viele Zielbrowser gerecht).

Glücklicherweise gibt es ja jetzt (seit 1998) gewisse Webstandards, die Homepage-"Bastlern" als auch Surfern das Leben einfacher machen (sollen).

Naja, dieser Freiherr ist so frei, harmlose Gestalten z.B. wegen eines mangelhaften Web-Impressum mit horrenden Summen abzumahnen.

Ach so, klar. *überleg* - aber nur bei Konflikten mit Freiherren/harmlosen Gestalten, oder? Also nicht nach der Devise "Hey, du hast kein Impressum, ich zeig' dich an"!?

Der Typ ist seines Zeichens Anwalt und diese Zunft hat sich weniger auf Privatpersonen als eher auf Firmen und Selbstständige spezialisiert, weil da mehr zu holen ist. Aber ist gibt mittlerweile (rechtlich) verbindliche Richtlinien, wie ein Impressum auszusehen hat (privat oder geschäftlich), die die ganze Sache erheblich vereinfachen.

Datenschleimspuren ist ein Begriff vom CCC und bezeichnet die Daten, die man im Internet wie eine Schleimspur hinter sich herzieht.

Also "Signaturen"!? ;o)

Unter anderem, aber auch Cookies, die von eingebetteter Werbung ausgelesen werden, Referer, ...

Ich finde Accesslogs in so fern sinnvoll, dass man damit
  a) Eine Statistik der Verwendeten Browser erstellen kann
Wozu?

z.B. um zu sehen, was für Leute meine Seite besuchen. Wenn z.B. der Mozilla-Anteil im Vergleich zu "normalen öffentlich bekannten Statistiken" (statisches bundesamt...) sehr hoch ausfällt, würde ich daraus schließen, dass viele nicht-DAU's meine Seite besuchen - hingegen bei fiktionalen 98% IE ich am Besten gleich ein gesamtes Extracss (Conditional Comments) für den IE mache ;)

Dafür reicht die simple Speicherung der Browserkennung, die Apache-Standardeinstellung geht aber weit darüber hinaus. Rhetorische Frage: Kann man die "audience" nicht auch über die Inhalte beeinflussen? Sobald es philosophisch, technisch, ... speziell wird, kann man gewisse Nutzergruppen quasi ausschließen.

c) Wann die Leute kommen
Uhrzeit?

zum Beispiel. Oder auch im größeren Rahmen: In der Woche. Oder im Monat. Oder gleich im Jahr: Kommen im Laufe der Zeit mehr oder weniger Leute auf meine Seite?

Solche Daten sind doch höchstens interessant, wenn es darum geht den Webserver zu tunen bzw. fürs Loadbalancing.

übrigens noch:

d) Wie lange Leute durchschnittlich auf meiner Seite bleiben

Das ist durchaus interessant zu wissen, was aber darüber hinaus noch aufschlussreich ist einen guten Freund, Bekannten, ... Internet-Laien vor die Seite zu setzen und zu beobachten, wie er sich durch das Projekt navigiert, welche Fragen auftauchen sowie ob und wann er "Lost in Hyperspace" aufgibt. Diese Erkenntnisse sind sehr wichtig, denn wenn jeder "Depp" die Seite versteht, dann können es "Profis" und Suchmaschinen-Bots erst recht.

e) Über welche Suchbegriffe meine Seite gefunden wird (bei Suchmaschinen, versteht sich)

Wie das? Referer?

f) Auf welchen Seiten Leute bei meiner Seite einsteigen ...

Du meinst, ob Unterseiten irgendwie extern verlinkt sind?

g) ... und wo sie wieder aussteigen
   h) Wieviele "Visits" ich im Gegensatz zu reinen "Hits" habe

Das beinhalten ja bereits die Punkte d), f) und g). Aber damit kann man in der Tat z.B. auch (versuchte) DDoS-Attacken erkennen, wenn z.B. nur die /index.html nachgefragt wird, aber keine damit verlinkten Stylesheets, Grafiken, ...

... und wahnsinnig viel mehr. Bereits mit'm Webalizer bekommt man sowas raus. Professionelle Loganalyzingtools können wahrscheinlich noch wesentlich mehr "errechnen" - bzw. geben bessere Statistiken aus ;-)

Wenn, dann wenigstens pures plain text lesen (mit dem VI) ;-)

d) Wieviel Prozent 404, 400, ...-Statuscodes ausgegeben wurden
Wieso dass denn? Reicht da nicht die reine errorlog?

hmm.... sagen wir mal so: Mein Webalizer analysiert den accesslog und nicht den errorlog ;-)

Ich habe auf meinem privaten Webserver daheim zum Testen nur noch die errorlog aktiviert, weil das vollkommen reicht, aber ne accesslog hat schon den Vorteil, dass man z.B. sieht wann man ins Internet ist und vergessen hat den Apachen zu beenden ;-)

Grüße,

sven

Bis demnächst, Robert