Candid Dauth: Mysteriöser Downloadabbruch bei großen Dateien

Beitrag lesen

Guten Abend Forum!

Seit einiger Zeit habe ich in meinem Heimnetzwerk ein sehr merkwürdiges Problem beim Download großer Dateien, und da ich wirklich absolut ratlos bin, hoffe ich, dass ein alter Hase hier so etwas schonmal erlebt hat und weiß, was zu tun ist.

Folgendes passiert: Ich lade eine große Datei herunter (Größe: etwa 100 MB). Nach 30 bis 36 MB kommen plötzlich keine Daten mehr an, die Übertragungsrate sinkt einfach auf 0 B/s ab. Wenn ich den Download wiederaufsetze, kommen immernoch keine Daten an. Wenn ich die Datei neu herunterlade, funktioniert das problemlos, bis es eben bei 30 bis 36 MB wieder aufhört.

Konkret handelt es sich um Pakete unter Gentoo Linux. Das Problem tritt mit allen großen Dateien auf, die ich in letzter Zeit versucht habe herunterzuladen (nebenbei auch mit YouTube-Videos), das heißt, es ist auszuschließen, dass es an einer speziellen Datei liegt. Ebenfalls auszuschließen ist, dass es an einem bestimmten Server liegt, da ich einige der vielen Gentoo-Mirrors durchprobiert habe. Auch probiert habe ich, eine Datei von einem Mirror herunterzuladen und den Download dann von einem anderen Mirror wiederaufzusetzen. Aber auch das hat nicht funktioniert.

Komisch ist, dass das Problem sowohl über HTTP als auch über FTP auftritt. Noch komischer ist, dass es jedoch mit HTTPS funktioniert!

Meine Infrastruktur zuhause im Netzwerk schaut folgendermaßen aus: ich greife per W-LAN auf einen eigens gebauten Gentoo-Server zu, dieser leitet den Traffic dann durch einen transparenten Proxy (Squid) und dann über eine andere Netzwerkkarte an einen Speedport-W-700V-Router (Telekom) weiter.

Freilich habe ich auch schon versucht, den transparenten Proxy abzuschalten, ohne Erfolg. Ebenfalls nicht funktioniert hat es sogar, als ich mittels eines gateway6-IPv6-in-IPv4-Tunnels (http://go6.net/) auf meinem Rechner versucht habe, die Dateien herunterzuladen (wobei es dort trotzdem auch über HTTPS funktioniert hat).

Als Download-Programm habe ich bis jetzt normalerweise wget 1.11.4 verwendet, mit aria2 0.15.3 bestand das selbe Problem, auch probiert habe ich es mal über Telnet und die entsprechenden FTP-Kommandos. Im Firefox scheint das Problem auch zu bestehen, zumindest hören lange YouTube-Videos nach einer Weile zu laden auf. Es hat auch nichts geändert, die Dateien direkt von meinem Gentoo-Server im Netzwerk aus herunterzuladen.

Eine Beispieldatei, mit der das Problem besteht, ist diese: ftp://sunsite.informatik.rwth-aachen.de/pub/Linux/gentoo/distfiles/oxygen-icons-4.3.2.tar.bz2. Von einem anderen Server im Internet aus konnte ich sie problemlos herunterladen.

Ich kann mir überhaupt nicht vorstellen, wie dieses Problem entstehen könnte. Die Tatsache, dass HTTPS, nicht jedoch das Wiederaufsetzen funktioniert, weist darauf hin, dass eben nicht die Trafficmenge pro Verbindung beschränkt wird. Eher scheint es, als beherrsche die Stelle, an der es scheitert, das HTTP- und das FTP-Protokoll und würde ab einer bestimmten Dateiposition den Downloadstrom abbrechen (wobei mich dann wundert, dass die Position nicht eindeutig ist, sondern zwischen 30 und 36 MB variiert). Das würde erklären, warum es den verschlüsselten HTTPS-Verkehr nicht anfasst. Aber das problematische Programm muss schon sehr intelligent sein, dass es sogar den getunnelten IPv6-Traffic erkennt.

Wo kann die Ursache liegen? Bei der Telekom? Auf meinem Router? Auf meinem Server?

Gautera!
Grüße aus Biberach Riss,
Candid Dauth