Neue Requests werden halt einfach in eine
Warteschleife gepackt und erst bearbeitet, wenn wieder Ressourcen
verfuegbar sind. Genau das bedeutet ueberigens der Server-Load: Der
Load sind die Anzahl von Prozessen, die in der Warteschleife vor
der CPU stehen.
Ich habe noch nie gehört, dass es eine derartige Warteschleife geben soll; dachte einfach, dass dann jedes Programm einfach eine sehr viel kleinere Timesplice bekommt.
Das ist doch ein Grundprinzip von Message Passing Systems (also alles, was eine Connection aufmacht, Webserver, Datenbank, ...).
Ist der Respondent überlastet, kommen neue Requests in die Warteschlange (Queue). Deswegen ist es bei Überlastung des Servers ja auch normalerweise immer so, daß der Rechner nicht abschmiert und nur die Clients längere Wartezeiten haben (oder eben "Connection refused" bekommen).
Andernfalls wäre das Prinzip ja auch untauglich. :-)