Christian Seiler: HTTP-Requests via Linux vs. Windows

Beitrag lesen

Hallo Björn,

Ein gutes Beispiel stellt die URL "http://www.bosch.de/start/content/language1/html/index.htm" dar.
Im Browser (FF20 unter XP) wird die Seite bei definitiv leerem Cache in 100-150ms komplett ausgeliefert, während curl u.a. mit exakt gleichem Request-Header (an FF20 angeglichen) 20s brauchen.
(Die Response-Header sind ebendalls identisch)

Das kann ich so direkt nicht nachvollziehen. Bei mir braucht die Seite immer gleich lang - egal ob unter Windows 2000 (dort im IE 6 und FF 2.0 getestet) oder Linux (mit FF 2.0 und curl getestet). Wenn ich den Verkehr allerdings unter beiden OS per Wireshark mitschneide, dann sehe ich, dass der Server in lauter 590-Byte-Fragmenten antwortet. Und Fragmentierung ist immer schlecht. Warum ausgerechnet 590 Bytes gewählt werden, entzieht sich meiner Kenntnis, normalerweise sind selbst bei DSL 1482 Bytes problemlos möglich. Zudem: Laut Wireshark handeln die beiden Rechner auch die - für mein Netz - korrekte MSS aus.

In meinen Augen liegt das Problem an irgend einer Stelle zwischen dem Bosch-Webserver und Dir (und da Du es von diversen RZs aus probiert hast, vmtl. ziemlich in der Nähe des Bosch-Webservers), d.h. irgendwo ist dort das Netz so blöd konfiguriert, dass es zu Fragmentierung führt - und DAS kostet eben enorm viel Zeit.

Viele Grüße,
Christian