Download von mehereren Seiten mit einem Programm
Holland_berti
- software
Hi Leute! Wie kann ich von einer Website gleiche alle HTML-Dateien die in den Verzeichnissen und Unterverzeichnissen liegen auf einen Schlag runterladen. Brauch ich für ein Online Tutorial, dessen Seiten auf mehrer Verzeichnisse verteilt liegen.
Danke im vorraus.
mfg
Hi Leute! Wie kann ich von einer Website gleiche alle HTML-Dateien die in den Verzeichnissen und Unterverzeichnissen liegen auf einen Schlag runterladen. Brauch ich für ein Online Tutorial, dessen Seiten auf mehrer Verzeichnisse verteilt liegen.
Hi,
unter Linux gibt es wget, unter Linux und Windows kannst Du htget nehmen.
Wenn das nicht reicht, sag mir Bescheid, ich kann Dir das mit einer anderen (selbstgebauten) Technik machen.
Gruß
Reiner
Hallo, Reiner!
unter Linux gibt es wget, unter Linux und Windows kannst Du htget nehmen.
Wenn das nicht reicht, sag mir Bescheid, ich kann Dir das mit einer anderen (selbstgebauten) Technik machen.
htget für windows? hast du mal nen link?
wget gibts doch auch für windows und es ist das beste, was ich bisher gefunden habe.
oder meinst du httrack? davon bin ich nicht so begeistert.
freundl. Grüsse aus Berlin, Raik
Hallo, Reiner!
unter Linux gibt es wget, unter Linux und Windows kannst Du htget nehmen.
Wenn das nicht reicht, sag mir Bescheid, ich kann Dir das mit einer anderen (selbstgebauten) Technik machen.htget für windows? hast du mal nen link?
http://www.wftpd.com/downloads.htm
wget gibts doch auch für windows und es ist das beste, was ich bisher gefunden habe.
oder meinst du httrack? davon bin ich nicht so begeistert.
oder das!
Perfekt sind die alle nicht. Probleme gibt es, wenn man im URL ständige Parameteränderungen hat, die sich gleichzeitig im Quellcode fortpflanzen.
Dazu muß man dann was Eigenes schreiben.
Gruß
Reiner
Hallo, Reiner!
Perfekt sind die alle nicht. Probleme gibt es, wenn man im URL ständige Parameteränderungen hat, die sich gleichzeitig im Quellcode fortpflanzen.
bisher hat wget seinen job ganz gut gemacht.
Dazu muß man dann was Eigenes schreiben.
und das eigene, das willst du nicht veröffentlichen? ;-)
freundl. Grüsse aus Berlin, Raik
Hallo, Reiner!
Perfekt sind die alle nicht. Probleme gibt es, wenn man im URL ständige Parameteränderungen hat, die sich gleichzeitig im Quellcode fortpflanzen.
bisher hat wget seinen job ganz gut gemacht.
bei normalen Seiten: ja
Dazu muß man dann was Eigenes schreiben.
und das eigene, das willst du nicht veröffentlichen? ;-)
wie meinst Du das?
Hallo, Reiner!
bisher hat wget seinen job ganz gut gemacht.
bei normalen Seiten: ja
also svg.tutorial.aptico.de hat es mir fast 100% runtergezogen. mit den anderen tools ging das überhaupt nicht.
Dazu muß man dann was Eigenes schreiben.
und das eigene, das willst du nicht veröffentlichen? ;-)
wie meinst Du das?
na, so zum downloaden und studieren. :-)
ich hatte ja auch schon überlegt, mal was eigenes zu bauen. aber die vielen optionen und einstellungsmöglichkeiten, die z.b. wget bietet, das ist schon ne menge arbeit.
freundl. Grüsse aus Berlin, Raik
Hi Leute! Wie kann ich von einer Website gleiche alle HTML-Dateien die in den Verzeichnissen und Unterverzeichnissen liegen auf einen Schlag runterladen. Brauch ich für ein Online Tutorial, dessen Seiten auf mehrer Verzeichnisse verteilt liegen.
Um eine ganze Website oder Teile davon runter zu laden benutze ich
http://www.httrack.com
lgg. karl :-)´
Hallo, karl!
Um eine ganze Website oder Teile davon runter zu laden benutze ich
http://www.httrack.com
freundl. Grüsse aus Berlin, Raik