Time-Out beim Fileupload
Detlev Timm
- cgi
0 Peter Thomassen0 Ed X
Hi,
kennt jemand Begrenzungen beim Fileupload per PHP oder Perl? Ich meine nicht das Skriptseitige Time-Out, sondern das Time-Out, welches auf Seiten des Browsers entsteht. Ich kriege das nicht in den Griff.Ich will meinem Schwager die Möglichkeit geben sehr große Dateien zu uppen. Alle getesteten Skripte nehmen auch artig ihre Arbeit auf und vollenden diese erfolgreich, wenn die zu übertragenden Dateien nicht zu groß, also innerhalb von ca. 2 Min. zu bertragen sind. Er soll aber Dateien übertragen, die etwa 2 Stunden dauern (trotz DSL!), also sehr groß sind. Ist das überhaupt machbar? Irgendwo in diesem Forum habe ich gelesen, das Uploads über 64kB generell nicht möglich wären. Das kann aber nicht sein, denn testweise Daten von 2 MB hat er locker übertragen. Eigentlich ist ja nur das Time-Out vom IE Schuld, denn mitten in der Übertragung kommt die Meldung, das die Seite nicht angezeigt werden kann, weil sie nicht verfügbar ist. Da hilft doch sicher ein temporärer Eingriff in die Registry, oder? Ich weiß nur nicht wo und bin schon völlig verzweifelt. Möglicherweise kann man das auch durch das Skript verzögern? Ich dachte so an eine Grafik, die vom Skript nebenbei ständig aktualisiert wird. Machbar oder nicht?
Hi Detlev,
Ergänzungen gehören in den Originalthread.
Möglicherweise kann man das auch durch das Skript verzögern? Ich dachte so an eine Grafik, die vom Skript nebenbei ständig aktualisiert wird. Machbar oder nicht?
Nein.
Bye,
Peter <== Das ist eine Grußformel.
Hallo,
Er soll aber Dateien übertragen, die etwa 2 Stunden dauern (trotz DSL!), also sehr groß sind.
lass mal schnell nachrechnen: 128 kbit/s * 7200s = 115MB!!!
???
Was z.G.[1] will denn dein Schwager damit im Internet. IMHO haben
Files solcher Größe
a) nichts im Internet zu suchen
b) werden wenn dann getrennt in viele kleine Einzelfiles geteilt, um
einen ordentlichen Download zu gewährleisten.
und da ich nicht glaube, dass so viele leute diese files brauchen, um
einen Upload zu rechtfertigen, solltest du vielleicht über eine
P2P-struktur nachdenken, die evtl. in JAVA zu realisieren wäre.
bye eddie
[1] zum Geier
Hoi,
lass mal schnell nachrechnen: 128 kbit/s * 7200s = 115MB!!!
???
Was z.G.[1] will denn dein Schwager damit im Internet. IMHO haben
Files solcher Größe
a) nichts im Internet zu suchen
b) werden wenn dann getrennt in viele kleine Einzelfiles geteilt, um
einen ordentlichen Download zu gewährleisten.
http://ftp7.de.freebsd.org/pub/FreeBSD/ISO-IMAGES-i386
http://ftp.rfc822.org/pub/mirror/debian-cd/2.2_rev4/i386/
Gruesse,
CK
Grüße,
IMHO haben
Files solcher Größe
a) nichts im Internet zu suchen
b) werden wenn dann getrennt in viele kleine Einzelfiles geteilt, um
einen ordentlichen Download zu gewährleisten.
http://ftp7.de.freebsd.org/pub/FreeBSD/ISO-IMAGES-i386
http://ftp.rfc822.org/pub/mirror/debian-cd/2.2_rev4/i386/
/me das natürlich nicht so vollkommen absolut meint, aber ich bin der
meinung, dass ein filetransfer ansich schon ein missbrauch des http://-
protkolls ist. Was ist dann eigentlich ein 115 MB upload?
Deine links wiederlegen meine ansicht über filegröße im internet, gut.
Dennoch sollte das nicht über http:// abgewickelt werden. Und selbst bei
ftp finde ich das zerstückeln von Files sinnvoll.
bye eddie
Hoi,
/me das natürlich nicht so vollkommen absolut meint,
Ich hab wohl das "*scnr* ;-)" vergessen ;-)
aber ich bin der meinung, dass ein filetransfer ansich schon ein
missbrauch des http://-protkolls ist.
Wieso? Ist doch offizieller Standard, HTTP implementiert sogar eine
eigene Request Method dazu: PUT.
Was ist dann eigentlich ein 115 MB upload?
Uebertrieben ;-)
Dennoch sollte das nicht über http:// abgewickelt werden.
Warum nicht?
Und selbst bei ftp finde ich das zerstückeln von Files sinnvoll.
Bei FTP mag es sinnvoll sein. Bei HTTP durchaus nicht: jeder popelige
DL-Manager kann Downloads abbrechen und hinterher wieder fortsetzen.
Gruesse,
CK