Andreas Korthaus: Auslastung eines Servers

Beitrag lesen

Hi lulu!

Im Rahmen eines "Cookie-Tracking" (* schäm * ich war jung und brauchte das Geld ) hatte ich zuerst genau die gleichen Überlegungen angestellt.

so eine bist Du also... ;-)

Ich nahm an, dass das reine Textlogging besser funktionieren würde.
Dann habe ich einen Testlauf txt-File vs. Datenbank durchgeführt.
Das lief auch auf einem Schlund-Server.
Gewonnen hat die Datenbank.

Das kann ich mir nicht vorstellen. Jeder der 200.000 muß immer eine neue DB.Verbindung herstellen, für eine Abfrage. Das _kann_ doch nicht so schnell sein. Was anderes wenn man alles mit einer bestehenden/persistenten Verbindung in die Datenbank schreibt, aber das geht bei Schlund vermutlich nicht, da die mit einiger Sicherheit die CGI-Version installiert haben. Ich würd es einfach mal irgendwo testen. Soll den ein eigener Server gemietet werden? Denn sonst dar fman sich die Performance ja noch mir den anderen Kunden auf einem Server teilen! Und zur Not kannst Du ja immer noch umziehen, oder Dir einen 2. Server dazu nehmen, und dann mit einem url-rewriting die Last auf beide Server verteilen. Wobei - kennt jemand hier eine schnelle Möglichkeit die User möglichst gleichmäßig zu vertrilen? Mir fiele da nur ein Blick in die Logfiles ein und bei der IP "in der Mitte" zu teilen, alle IPs kleiner auf den einen Rechner, alle anderen auf den anderen Rechner. So würde zumindest kein Schreib oder Lesezugriff auf eine Datei nötig.
Aber um nochmal auf die genannten 50 Einträge/Sekunde zurückzukommen, das wären dann bei insgesamt 200.000 Einträgen 4.000 Sekunden, also etwas mehr als 1 Stunde, ich dachte Du hast 2 Wochen?

Wobei vermutlich selbst diese Last machbar wäre, aber das solltest Du vorher testen!

Viele Grüße
Andreas