Hallo nochmal.
Dan würde ich mir gerne anschauen ;-)
, der mit aus ner DB alle Daten raussucht, sodass ich nicht immer per cronjob die logs 1mal am Tag einlesen und dann neue Stats erstellen muss.
Ich weiß nicht genau worauf du genau hinaus willst, aber ich geh einfach mal davon aus, dass du etwas an der Performance eines solchen Projektes zweifelst. Richtig?
Nunja, ich habe es im Moment testweise mit ca. 350000 Datensätzen (2 Jahren) laufen und die Abfragen dauern im Schnitt 4 Sekunden. Das ist eine Zeit mit der ich durchaus leben kann, wobei die Tabelle für die Daten einfach jede Zeile der Logdatei in atomare Werte teilt und diese in entsprechende Spalten aufteilt. Da lässt sich sicher noch einiges optimieren aber soweit bin ich noch nicht.
Das mit dem cronjob spare ich mir halt dadurch, dass der jeder Änderung live bemerkt und in die DB einfügt (Thema tail).
Da ist nichts anderes zu machen, als daß du dir eben "Ahnung" zulegen mußt. Wenn du das mit PHP schon auf befriedigende Art hingekriegt hast, wirst du es mit Perl auch schaffen - die Grundprinzipien sind schließlich dieselben, nur lauten die unmittelbaren Befehle an einigen Stellen deutlich anders.
Sicher sind die Grundprinzipien gleich. Deshalb sagt ich ja, dass ich mich selbst reinfinden werde. Aber mit einem kleinem Anfang ist das sehr viel leichter und schöner als von Grund auf selbst alles zu entwerfen. ;)
Wie dem auch sei... Ist an dem Grundkonzept erstmal was zu bemängeln, was mir nicht aufgefallen ist? Der große Pluspunkt ist einfach, dass ich die Abfragen nur ausführe wenn ich sie auch wirklich sehen will (bei cronjob wird auf "Verdacht" erstellt) und dass ich alle Zugriffe nahezu live mitverfolgen kann. Über den Sinn und Zweg kann man sicher streiten...
Gruß, Andü