Kristof: Langsame Seiten durch JScript o. durch viele kleine Dateien ?

Beitrag lesen

Hallo Michael,

klar sind 190k viel, aber ohne Cgi oder einen komplett neuen Ansatz geht‚s momentan nicht anders (nicht öffentlicher Katalog/Warenkorb mit Vorschau, Bestellen per Drag+Drop usw.)
Aber eigentlich haben die Fragen damit gar nicht so viel zu tun, die Probleme werden bei den grossen Seiten halt deutlicher. Ich versuch das Ganze nochmal darzustellen und hoffe dass es nicht zu auschweifend wird.

Abgesehen von den Wartezeiten, Verzögerungen bei Javascript .... :

  • liegt die Zeit nur beim lokalen Rechner (Cpu und Javascriptinterpreter) ?
  • warum brauchen z.B. Aufrufe wie document.write recht lange (könnte Netscape-typisch sein) ?
  • warum brauchen manche Funktionen so lange, z.B.
    <script>function gehzu(){parent.window.close();}</script></head><body>
    <input type=button value="Zu" onClick="gehzu();">
    braucht (in einer grösseren Datei) sehr lange. Dagegen ist
    <input type=button value="Zu" onClick="parent.window.close();">
    äusserst fix.

..... geht es mir hauptsächlich um das Verhältnis übertragener Datenmenge zur Datengrösse,
insgesamt ist der Datenverkehr fast das Doppelte der eigentlichen Daten :

  • warum werden 1.3 mal so viele Daten vom Server übertragen ?
    (Ich habe da natürlich Erklärungen wie Overhead oder Daten zur Fehlerkorrektur, aber bei über 30% mehr statt etwa nur 5% kann man das Ganze nochmals hinterfragen)
    -warum werden zusätzlich nochmals rund 75% der Datenmenge an den Server geschickt?
    (sind es nur Anfragen etc., sind die  Anforderungen so umfangreich, es werden 81 thumbnails, ca 25 gif, ca 20 html, einige .js und css geladen, bei 130 Dateien also 1k Anforderung pro Datei ? )

Daraus ergibt sich entsprechend die Überlegung, ob bei dem "Vorladen für den flüssigen Seitenaufbau" einer kleinen Datei von 100byte  zugleich mehr als 1k zusätzlicher Verkehr anfällt, und welche Verzögerungen oder Abfragen später beim eigentlichen Einsatz dieser Datei hinzukommen ( Muss der Browser sich etwa nochmals beim Server versichern dass die lokale Datei das gleiche Datum hat?). Da könnte es manchmal. Vorteile haben kleinere Dateien zu einer Grösseren zusammenzufassen oder auf ein "preload" zu verzichten.

Und zuletzt der Server als Unbekannte Grösse. Da gibt es zum einen Bandbreitenprobleme im Netz und zum anderen Kapazitätsgrenzen der Server. Ich vermute hier verschiedene "Verhaltensweisen" mit ganz verschiedenen Auswirkungen. Verhält sich ein Server überhaupt irgendwie, und wenn ja, muss ein Server dann eher viele Anforderungen auf einmal  erledigen und wird er dann bei zunehmend vielen gleichzeitigen Anfragen gerade die neueren Anfragen immer langsamer erledigen?