Kristof: Langsame Seiten durch JScript o. durch viele kleine Dateien ?

Hallo,

leider habe ich Tempoprobleme vor allem beim Zugriff auf Seiten mit Javascript auf dem home.t-online/home Server.
Ein Teil der Probleme liegt wohl am langsamen Server oder der Cachetechnik des Servers, aber vermutlich liegt es auch am komplexeren Aufbau mit Javascipt oder an den vielen kleinen Dateien. Dabei ist scheinbar weder die Cpu ausgelastet, noch ist ständiger Datentransfer festzustellen.
Deswegen meine Frage, was da beim Laden passiert und was zur Beschleunigung getan werden kann.
Ist der Browser bzw. sein Javascript zu langsam, werden prinzipbedingt irgendwelche Schritte doch wieder auf den Server verlagert, oder gibt es Probleme mit dem Server durch zu viele kleine Dateien oder durch (besonders bei vielen Dateien) verspätete Anfragen an den Server?
Muss der Browser immer für jede Grafik extra eine einzelne Anforderung an den Server schicken ?
Was bedeutet es, wenn bei der Internetverbindung während des Seitenaufbaus der ca. 190k der Seite (90k html, 33k js, 3k css, 64k grafik) letzendlich 250k (statt 190k) Daten empfangen, aber dann auch noch 137k an den Server gesendet wurden ?

Grüsse,
Kristof

  1. leider habe ich Tempoprobleme vor allem beim Zugriff auf Seiten mit Javascript auf dem home.t-online/home Server.

    Gib doch mal die URL hier an, dann können auch andere ausprobieren, ob es wirklich langsam ist (oder an Deinem Client liegt).

    Was bedeutet es, wenn bei der Internetverbindung während des Seitenaufbaus der ca. 190k der Seite (90k html, 33k js, 3k css, 64k grafik) letzendlich 250k (statt 190k) Daten empfangen, aber dann auch noch 137k an den Server gesendet wurden ?

    Also zumindest sind 190 kB für *eine* Seite weit jenseits von Gut und Böse. Schon 50 kB wäre eine "fette" Seite.
    Welche Leitungsgeschwindigkeit setzt Du denn voraus? Dann kannst Du einfach ausrechnen, wie lange die Übertragung mindestens dauern wird.

    1. Hallo Michael,

      klar sind 190k viel, aber ohne Cgi oder einen komplett neuen Ansatz geht‚s momentan nicht anders (nicht öffentlicher Katalog/Warenkorb mit Vorschau, Bestellen per Drag+Drop usw.)
      Aber eigentlich haben die Fragen damit gar nicht so viel zu tun, die Probleme werden bei den grossen Seiten halt deutlicher. Ich versuch das Ganze nochmal darzustellen und hoffe dass es nicht zu auschweifend wird.

      Abgesehen von den Wartezeiten, Verzögerungen bei Javascript .... :

      • liegt die Zeit nur beim lokalen Rechner (Cpu und Javascriptinterpreter) ?
      • warum brauchen z.B. Aufrufe wie document.write recht lange (könnte Netscape-typisch sein) ?
      • warum brauchen manche Funktionen so lange, z.B.
        <script>function gehzu(){parent.window.close();}</script></head><body>
        <input type=button value="Zu" onClick="gehzu();">
        braucht (in einer grösseren Datei) sehr lange. Dagegen ist
        <input type=button value="Zu" onClick="parent.window.close();">
        äusserst fix.

      ..... geht es mir hauptsächlich um das Verhältnis übertragener Datenmenge zur Datengrösse,
      insgesamt ist der Datenverkehr fast das Doppelte der eigentlichen Daten :

      • warum werden 1.3 mal so viele Daten vom Server übertragen ?
        (Ich habe da natürlich Erklärungen wie Overhead oder Daten zur Fehlerkorrektur, aber bei über 30% mehr statt etwa nur 5% kann man das Ganze nochmals hinterfragen)
        -warum werden zusätzlich nochmals rund 75% der Datenmenge an den Server geschickt?
        (sind es nur Anfragen etc., sind die  Anforderungen so umfangreich, es werden 81 thumbnails, ca 25 gif, ca 20 html, einige .js und css geladen, bei 130 Dateien also 1k Anforderung pro Datei ? )

      Daraus ergibt sich entsprechend die Überlegung, ob bei dem "Vorladen für den flüssigen Seitenaufbau" einer kleinen Datei von 100byte  zugleich mehr als 1k zusätzlicher Verkehr anfällt, und welche Verzögerungen oder Abfragen später beim eigentlichen Einsatz dieser Datei hinzukommen ( Muss der Browser sich etwa nochmals beim Server versichern dass die lokale Datei das gleiche Datum hat?). Da könnte es manchmal. Vorteile haben kleinere Dateien zu einer Grösseren zusammenzufassen oder auf ein "preload" zu verzichten.

      Und zuletzt der Server als Unbekannte Grösse. Da gibt es zum einen Bandbreitenprobleme im Netz und zum anderen Kapazitätsgrenzen der Server. Ich vermute hier verschiedene "Verhaltensweisen" mit ganz verschiedenen Auswirkungen. Verhält sich ein Server überhaupt irgendwie, und wenn ja, muss ein Server dann eher viele Anforderungen auf einmal  erledigen und wird er dann bei zunehmend vielen gleichzeitigen Anfragen gerade die neueren Anfragen immer langsamer erledigen?