Hi!
Wieso sollte mir bei dieser Meßmethode der Referer fehlen?
Wenn Du nicht auf den eigentlichen Server zugreifst, sondern nur eine Grafik von extern(also Deinem Server) einbindest, dann steht im Referer, den Du auf Deinem Server empfängst "lediglich" der URI der Seite die der Besucher aufgerufen hat, nicht die Seite wo er hergekommen ist, diese Info bekommt nur der "echte" Server auf dem die html-Seiteten liegen, und der bekommt dies Information beim direkten Request der html-Seite.
Die Struktur bekomme ich durch die Daten geliefert.
Eine Aneinanderkettung von Vektoren liefert den Gesamtweg.
Was bezeichnest Du jetzt als Verktoren (bin kein Informatiker, aber unter Vektoren verstehe ich gerichtete Kraft oder sowas ;-))?
Oder bezeichnest Du "einen Satz" Informationen zu einem Request als Vektor?
Aber wenn Du solche Angaben live analysieren willst, dann ist das aber ein erhebliche Aufwand für den Server, kommt jetzt drauf an was genau gemacht werden soll, aber ich wüßte keinen besonders performanten Weg solche Daten zu analysieren?!
Versuche eine Möglichkeit zu finden.
Wir arbeiten an unserem System (nebenbei) seit ca. 3 Jahren. Wenn Du uns Tips geben könntest, wäre das gut! :-)
Für Performance-Fragen bin ich nicht zuständig, da ist Michael Schröpl der Fachmann hier :-)
Da Ihr Euch so lange damit beschäftigt habt kann ich vor allem als nicht-Informatiker vermutlich nichts dazu beitragen, ich kann nur auf eien kleine Diskussion verweisen die ich kürzlich mit Philipp und Michael geführt habe "perfomanter Logging-Server" oder so ähnlich </archiv/2003/2/38897/#m213367>, aber da ging es weniger um dei Analyse, merh ums Loggen an sich. ich war davon ausgegangen das es das beste ist einen eigenen Mikro-HTTP-Server zu schreiben der nur diesen einen 1x1-Pixel.gif Request entgegennimmt und direkt loggt, das als C-Programm geschrieben... aber nach ein paar Überlegungen und Versuchen bin ich doch zu der Überzeugung gelangt das wenn ein hierfür optimierter Apache zu langsam würde, müßte ich schon längst nicht mehr arbeiten und würde durch die Karibik schippern, wenn man mal grob hochrechnet in welchen Dimensionen dann Requests kommen müßten, und das was alleine an Traffic kostet. Und ich bin auch der Meinung das es auf alle Fälle ausreicht den Apachen zum loggen zu verwenden und anschließend ein Script die Analyse durchführen läßt. Wenn man das vernünftig programmiert hat sollte man damit lange auskommen, da man ja auf Lastspitzen Rücksicht nehmen kann und die Analyse-Last über den Tag verteilen kann. Erst wenn man damit an Grenzen stößt würde ich evtl. ein eigenes C-Programm schreiben (oder besser ein Fachmann der das ganez auch performanter als ein PRL-Script mit 100 eingebundenen Modulen hinbekommt ;-)) welches die Analyse normalerweise in Echtzeit vornimmt, und vielleicht trotzdem auf Lastspitzen reagieren kann indem es Teile der Analyse auf morgens 4 Uhr verschiebt, oder eher 2 Dämons, der eine der die HTTP-Requests annimmt und analysiert, und bei zu viel Last nicht mehr analysiert und wie gehabt in eine Log-File schreibt, und der andere Dämon behält die gesamt-Auslastung im Auge, wenn es mal etwas entspannter zugeht nimmt er sich die Logfile vor und analysiert...
Und ich denke die Art wie man die Analyse vornimmt kann enorme Performance-Unterschiede bedeuten.
Naja, ich finde das Thema interessant, habe aber wenig Ahnung ;-)
Grüße
Andreas