Jörg Roßdeutscher: Seite hört nie auf zu laden. Debugger?

Beitrag lesen

Hallo Martin,

Danke schon mal für deine Antwort.

ich habe folgendes Problem: Eine Site, die auf zwei meiner Entwicklungsserver (Linux/Apache) prima läuft, hat auf dem finalen Gerät ein Problem: Obwohl sie ansonsten prima rennt, hört sie nie auf zu laden.

spontan und ohne weitere Detailinfo würde ich jetzt mal vermuten, der Server sendet einen Content-Length-Header mit einer falschen (zu großen) Angabe. Der Client erwartt also z.B. 6376 Bytes, der Server schickt aber nur 6334, der Client wartet dann "brav" auf das letzte Paket, das nie mehr kommt.

Ich wusste gar nicht, dass dieses Problem auftreten kann. Das klingt sehr plausibel.

Das betrifft Firefox(Mac)

Nicht FF/Win oder FF/Linux?

Ich habe hier einen Mac, alles andere läuft nur emuliert in Parallels, deswegen waren meine Angaben nur Stichproben. Ich nehme an, das z.B. FF konsistent reagiert.

Da es sich um das Admin-Interface unseres CMS handelt, brauchen auch nur „zertifizierte“ Browser laufen. Und zertifizieren tu ich  ;-)

Ich würde tatsächlich mal die HTTP-Header, vor allem Content-Length ansehen und mit der tatsächlich übertragenen Datenmenge vergleichen.

Das wird schwierig. Das Problem tritt mit dem FCKeditor auf, der u.a. iframes dynamisch generiert und wahnsinnig viel Zeugs nachlädt. Da ist kaum ein Überblick zu bekommen.

Ich würde das Problem gern anders herum angehen. Wüsstest Du eine Möglichkeit, warum das Problem auftritt?
Oder kennst Du eine Methode, wie man das Problem übersichtlich provozieren kann?

Spontan und aus dem Bauch heraus fällt mir bei Datenlänge nur mod_gzip ein, wer sonst spielt denn an sowas herum?

Da das ganze auf meinen Linux-Kisten prima läuft und der Kunden-Webserver (BSD) einen eher unguten Eindruck hinterlässt (Schnellschusseinrichtung…), würe ich aus dem Bauch heraus ein Serverproblem vermuten. Leider bin ich in BSD auch nicht so firm wie in Linux.

Gruß,
Jörg