Moin!
Im Detail würde ich das mal näher untersuchen, aber meiner Erfahrung nach ists mit Perl problemlos möglich, mehrere Tausend Lese- und Schreibvorgänge an einer Datei in nur einer Sekunde zu machen.
Mag sein. Aber kann der Apache mehrere tausend mal pro Sekunde HTTP-Requests beantworten?
Kann er das noch wenn z.B. mod_rewrite (wegen anderer Requests) aktiv ist?
Kann er das noch, wenn zusätzliche Logik (perl, PHP, ggf. Datenbank ausgeführt werden muss?
Vergiss bitte auch nicht, dass die Anzahl der Ports begrenzt ist. Persistene Verbindungen nach HTTP 1.1 verbieten sich dann (wahrscheinlich!) auch, dafür entsteht wieder Overhead durch den immer wieder neu erfolgenden Verbindungsaufbau.
Schafft der Server also nicht den einzelnen Request nicht so schnell abzuarbeiten bis der (durchschnittlich) nächste Request eintrifft also in Bruchteilen von tausenstel Sekunden, dann wird ein "Auftragsstau" auftreten, der irgendwann die knappste Ressource verbraucht.
Also: Wieviele gleichzeitige Netzwerkverbindungen (jeder Art!) kann eine Linux-Kiste überhaupt offen haben?
Wieviele "Worker" kann der Oberindianer starten, wieviele gleichzeitige Threads verwalten?
MFFG (Mit freundlich- friedfertigem Grinsen)
fastix