Ronny: wget - komplette Seite downloaden?

Hallo ihr!

Ich möchte unter Linux mithilfe des Befehles wget meine komplette Homepage ausm Netz auf meinen PC kopieren. Was für parameter muss ich alles mitgeben, damit es ALLE Dateien von www.domain.de runterlädt?

Danke!

Ronny

  1. GNU Wget/1.4.5 by Hrvoje Niksic hniksic@srce.hr
    Options:
          -o --output-file      log messages to logfile
          -i --input-file       read URL-s from file
          -q --quiet            quiet (no output)
          -t --tries            set number of retries per URL (0 to unlimit)
          -r --recursive        recursive web-suck -- use with care!
          -l --level            maximum recursion depth (0 to unlimit)
          -D --domains          comma-separated list of domains to accept
          -A --accept           comma-separated list of extensions to accept
          -R --reject           comma-separated list of extensions to reject
          -c --continue-ftp     restart getting an existing file
    Refer to the info documentation for a complete list of options.
    Mail bug reports to bug-wget@prep.ai.mit.edu.

    Copyright (C) 1995, 1996, 1997 Free Software Foundation, Inc.

    This program is distributed in the hope that it will be useful,
    but WITHOUT ANY WARRANTY; without even the implied warranty of
    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
    GNU General Public License for more details.

    1. Hi!

      Danke für diese Aufstellung...
      leider ist es mit meinen englisch-kenntnissen nich so weit her, und ich kapier nicht ganz, welche Optionen ich alles hinzufügen muss...

      Könntest du mir nochmal auf die Sprünge helfen? ;-)

      Viele Dank!

      Ronny

      1. Hallo Ronny,

        Könntest du mir nochmal auf die Sprünge helfen? ;-)

        Ich bin mal so freundlich:

        wget -r http://www.domain.de/

        Grüße,

        Christian

        --
        Sollen sich alle schämen, die gedankenlos sich der Wunder der Wissenschaft und Technik bedienen und nicht mehr davon erfasst haben als eine Kuh von der Botanik der Pflanzen, die sie mit Wohlbehagen frisst.
                              -- Albert Einstein
        1. Hallo, Christian,

          <besserwisser>

          Könntest du mir nochmal auf die Sprünge helfen? ;-)

          Ich bin mal so freundlich:

          wget -r http://www.domain.de/

          Besser:
          wget -r -l 0 http://www.domain.de/
                  ^^^^
          falls wgetrc nicht explizit reclevel=0 enthält. Der Defaultwert ist 5, das heißt nach einer Rekursionstiefe von 5 werden die Links nicht weiter verfolgt. Wenn wirklich die komplette Seite mit allen Unterseiten kopiert werden soll, muss die Rekursionstiefe auf 0 für unendlich gesetzt werden.

          Wenn nur ein Verzeichnis samt Unterverzeichnissen gespiegelt werden soll, ist ein -np nötig (no parent), beispielsweise
          wget -r -l 0 -np http://www.kostenlosprovider.de/~benutzerverzeichnis/
                       ^^^
          Anderweitig könnte wget auch einem Link nach http://www.kostenlosprovider.de/ folgen und alle Unterseiten der Domain herunterladen...
          </besserwisser>

          Grüße,
          Mathias

          --
          Geschwisterzwist zwischen Slivovic schlürfenden, spitzen, twistenden und schwitzenden Zwitscherschwestern.
          Zwanzig Zwerge zeigen Handstand, zehn im Wandschrank, zehn am Sandstrand.
          Kalle Kahlekatzenglatzenkratzer kratzt kahle Katzenglatzen.
          Bietet Brunhilde berauschende Brüste, buhlt Bodo brünstig beim Balle.