Seid gegrüßt!
Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen?
Ja, wenn du genug Speicherplatz zur Verfügung hast sollte das kein Problem sein.
Deshalb will ich ja nur den internen Links und Resourcen folgen.
Siehe Beschreibung zu wget (oder auch man wget).
Dich dürften besonders die Optionen -r (für rekursiv) -l (für die Rekursionstiefe) -E (damit z.B. bei *.php-Files die Endung html angehängt wird) und -k (damit links auf die Offline-Dateien "umgebogen" werden) interessieren.
Danke für die doch sehr genauen Infos.
--
Bis Später
RuD
________________________________________________________________
SelfCode: ie:% fl:( br:^ va:) ls:< fo:| rl:( n4:& ss:) de:> js:| ch:| mo:| zu:)
Bis Später
RuD
________________________________________________________________
SelfCode: ie:% fl:( br:^ va:) ls:< fo:| rl:( n4:& ss:) de:> js:| ch:| mo:| zu:)