Taker: wget lädt scheinabr keine externen Bilder

Hi Leute,

ich versuche schon mehrere Stunden mit wget eine Seite runterzuladen, die extern Bilder beinhaltet. Die Seite wird zwar gespeichert aber nicht die Bilder.

Um besser mein Problem zu erklären:

Nehmen wir z.b. die Seite http://web.de/ . Sie beinhaltet Bilder auf der Startseite die auf externen Domains gespeichert sind (z.b. http://img.ui-portal.de/uim/Coop/mediatainment_150x85.jpg).

Dies ganze versuch ich durch dieser Kommadozeile zu speichern:

wget -r -x -k http://web.de/

Aber er speichert keine Bilder. Was mach ich falsch?

  1. Hello,

    probier mal

    wget -r -l 2 -k -p http://web.de/

    Liebe Grüße aus dem schönen Oberharz

    Tom vom Berg

    --
    Nur selber lernen macht schlau
    http://bergpost.annerschbarrich.de
    1. Hello,

      probier mal

      wget -r -l 2 -k -p http://web.de/

      Liebe Grüße aus dem schönen Oberharz

      Tom vom Berg

      Danke für die schnelle Antwort, aber auch bei deinen Beispiel speichert er keine Bilder ab.

      1. Hello,

        probier mal

        wget -r -l 2 -k -p http://web.de/

        Danke für die schnelle Antwort, aber auch bei deinen Beispiel speichert er keine Bilder ab.

        Das sollte aber so funktionieren.

        Hast Du mal kontrolliert, ob die Bilder ggf. per Redirect geladen werden?
        Nimm Dir mal eins und lass es dirket per Adressleiste laden.
        Schau Dir die Life-HTTP-Header an.

        Sonst eventuell statt "-l 2" ein "-l 3" nehmen:

        -p
               --page-requisites
                   This option causes Wget to download all the files that are necessary to properly display a given HTML page.  This includes such things as inlined images, sounds,
                   and referenced stylesheets.

        Ordinarily, when downloading a single HTML page, any requisite documents that may be needed to display it properly are not downloaded.  Using -r together with -l
                   can help, but since Wget does not ordinarily distinguish between external and inlined documents, one is generally left with ``leaf documents'' that are missing
                   their requisites.

        For instance, say document 1.html contains an "<IMG>" tag referencing 1.gif and an "<A>" tag pointing to external document 2.html.  Say that 2.html is similar but
                   that its image is 2.gif and it links to 3.html.  Say this continues up to some arbitrarily high number.

        Tom vom Berg

        --
        Nur selber lernen macht schlau
        http://bergpost.annerschbarrich.de
        1. Hat auch alles nicht geholfen.

          Aber ich hab es jetzt endlich gelöst.
          Mit dem zusätzlichen Parameter -rH funktioniert es.

          1. Hello,

            Hat auch alles nicht geholfen.

            Aber ich hab es jetzt endlich gelöst.
            Mit dem zusätzlichen Parameter -rH funktioniert es.

            Das ist ja wirklich fies!
            Aber das werde ich mir auch mal merken. -p reicht also n der ersten Seite nur für Links auf eigene "Requisiten" und wenn es über mehrere Stufen aufgerufen wird...

            Note that Wget will behave as if -r had been specified, but only that single page and its requisites will be downloaded.  Links from that page to
                       external documents will not be followed.  Actually, to download a single page and all its requisites (even if they exist on separate websites),
                       and make sure the lot displays properly locally, this author likes to use a few options in addition to -p:

            wget -E -H -k -K -p http://<site>/<document>

            Liebe Grüße aus dem schönen Oberharz

            Tom vom Berg

            --
            Nur selber lernen macht schlau
            http://bergpost.annerschbarrich.de