Gleichzeitige Zugriffe
Thomas Mirke
- datenbank
Hallo Datenbankleute,
wieviele gleichzeitige Zugriffe gestattet wohl eine Kombination Perl/mySQL maximal (entsprechende Hardware vorausgesetzt) und was wäre zur Realisierung von 600 bis 1.000 gleichzeitigen Zugriffen erforderlich?
Danke für Eure Fachmeinung.
/tm
Moin!
wieviele gleichzeitige Zugriffe gestattet wohl eine Kombination Perl/mySQL maximal (entsprechende Hardware vorausgesetzt) und was wäre zur Realisierung von 600 bis 1.000 gleichzeitigen Zugriffen erforderlich?
600 bis 1000 gleichzeitige Zugriffe erfordern mindestens mal einen Webserver, der dazu in der Lage ist. Der Apache müßte dazu im Quelltext leicht modifiziert werden (er hat eine Begrenzung für die maximale Zahl an konfigurierbaren Prozessen drin).
Oder in welchen Zeiträumen rechnest du?
- Sven Rautenberg
Hallo Sven,
danke für Dein statement. Hardware ist nicht das Problem, es stehen wahlweise Windows2003 oder SuseLinux Server in einem Rechenzentrum zur Verfügung.
Ich wollte eher wissen, wieviel so eine mySQL-Datenbank maximal hergibt. Mit Oracle habe ich keine Erfahrungen und kenne dort die Performance-Grenzen auch nicht.
TM
Moin!
Ich wollte eher wissen, wieviel so eine mySQL-Datenbank maximal hergibt. Mit Oracle habe ich keine Erfahrungen und kenne dort die Performance-Grenzen auch nicht.
Wie soll man so eine Frage beantworten?
Es ist irgendwie klar, dass ein
SELECT * FROM bigTable1
bei 1000 parallelen Zugriffen die Datenbank ziemlich kräftig auslasten dürfte.
Genauso dürfte es "interessant" werden, wenn 900 deiner Zugriffe lesend und 100 schreibend auf die Datenbank zugreifen wollen. Nur Lesen oder nur Schreiben in einer Tabelle ist unkritischer, das parallel machen zu wollen führt zu Konflikten, weil Schreiben nur exklusiv möglich ist.
Und ebenso kann auch Perl ein Problem darstellen, wenn jeder Zugriff einen eigenen CGI-Prozess startet, der dann das Skript parst und ausführt. Fast_cgi bietet sich da vermutlich sehr an.
Tatsächlich wird es wohl darauf hinauslaufen, dass du mal einen Test wirst machen müssen, um abschätzen zu können, wie deine verfügbare Hardware drauf reagiert.
- Sven Rautenberg
Hallo,
Und ebenso kann auch Perl ein Problem darstellen, wenn jeder Zugriff einen eigenen CGI-Prozess startet, der dann das Skript parst und ausführt. Fast_cgi bietet sich da vermutlich sehr an.
Ich denke, dass mod_perl da die bessere Alternative sein würde.
Ausserdem sollte nicht vernachlässigt werden, dass der Verbindungs-Aufbau zur Datenbank in einem CGI-Script jedesmal neu erfolgen muss, währen man z.B. mit mod_perl die Chance hat, einen Connection-Pool zu verwenden.
Grüße
Klaus