Hallo Michaela,
bei statischen HTML Seiten wird der limitierende Faktor nicht die Server-Hardware sein, sondern das Datenvolumen und die Netzwerkanbindung. Bei dynamischen Seiten hängt es von der Festplatte ab, und davon, wie arg die Datenbankabfragen dem SQL Server das Caching vermiesen. Es hängt auch davon ab, welche Programmiersprache da läuft und wie sie eingerichtet ist (bei PHP gibt es da z.B. 3 Möglichkeiten, alle mit anderen Laufzeiteigenschaften). Ich glaube nicht, dass man auf Basis der CPU-Hardware die maximale Abruffrequenz berechnen kann, da helfen nur Erfahrungswerte von Webseiten, deren Timing man kennt.
Ein mir bekanntes Webserverchen auf PHP/MySQL Basis, das ständig eine Zeitmessung mitlaufen lässt, braucht brutto ca 25ms-50ms für eine Seite, d.h. 30-50 Abrufe pro Sekunde sind kein Thema. Man kann das aber auch nicht einfach dividieren; ein Teil der Zeit geht für die PHP Verarbeitung drauf, ein anderer Teil für den SQL Server, und ein Multicore-Server lässt sowas ja parallel laufen. Bei diesem Server weiß ich aber keine technischen Daten (außer dass es ein 64-bittiger x86-Prozessor ist). Ich weiß auch nicht, wieviel Last die anderen Webseiten dieses Servers konkurrierend produzieren.
Ob dieser Server bei echten 50 Abrufen pro Sekunde das Timing durchhält, kann ich auch nicht sagen. Die Seite, die ich da nutze, steht kaum unter Dampf. Es hängt bei vielen Abrufen auch immer stark vom Lastprofil ab - wenn die Abrufe kreuz und quer durch die Datenbank rasseln, ist die DB der limitierende Faktor, und ein Gigabyte RAM mehr oder weniger kann die Schwuppdizität von rasant nach unbedienbar verändern. Es kann aber genauso gut sein, dass die kritischen DB-Abfragen alle brav im Cache warten und bei höherer Abrufmenge überhaupt nicht ins Gewicht fallen.
Ob die Admins vom Self-Forum intern einen Performance-Monitor mitlaufen lassen und Abrufstatistiken für das Forum oder das Wiki haben, weiß ich nicht.
Zusammengefasst kann man deine Frage mit einem klaren KOMMT DRAUF AN beantworten.
Als andere Quelle kann ich dir nach kurzer Websuche das hier anbieten:
https://serverfault.com/questions/551697/apache-stability-on-a-very-high-traffic-server
da schreibt jemand von problemlosen 1000-2000 Zugriffen pro Sekunde und Problemen bei 3000-4000, und jemand empfiehlt daraufhin, in diesen Zonen über einen zweiten Server nachzudenken.
Man kann es aber nicht verallgemeinern, es gibt massenhaft Einflussfaktoren auf den maximalen Durchsatz und ein theoretisches Maximum ist genauso aussagekräftig wie die Prüfstandwerte von Dieselautos.
Rolf
sumpsi - posui - clusi