RuD: komplette Seite per wget herunterladen?

Seid gegrüßt!
ich denke gelsen zu haben, dass man mit wget ganze Sieten herunterladen kann, also mit jeder Resource. Ist das wahr?
Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen? Und ist es auch möglich die URLs der Resourcen so anzupassen, dass die Seite offline funktionieren würde.

Ich meine so etwas wie es der IE und auch FF können, mittels "Seite speichern unter" und dann "Webeite komplett". Es geht mir darum eine dynamische (mysql und php) Seite so herunterzu laden, dass sie statisch ist.

Ist so etwas möglich oder bin ich da auf dem Holzweg?

--
Bis Später
RuD
________________________________________________________________
SelfCode: ie:% fl:( br:^ va:) ls:< fo:| rl:( n4:& ss:) de:> js:| ch:| mo:| zu:)
  1. hallo,

    ich denke gelsen zu haben, dass man mit wget ganze Sieten herunterladen kann, also mit jeder Resource. Ist das wahr?

    Ja, so ungefähr

    Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen?

    Ja, so ungefähr.

    Und ist es auch möglich die URLs der Resourcen so anzupassen, dass die Seite offline funktionieren würde.

    Ups?

    Es geht mir darum eine dynamische (mysql und php) Seite so herunterzu laden, dass sie statisch ist.

    Ups?

    Ist so etwas möglich oder bin ich da auf dem Holzweg?

    An die Datenbank (MySQL) wirst du nicht herankommen. An ein PHP-Script kommst du _unter Umständen_ heran, wenn du seinen genauen Namen und die URL kennst.

    Probiere es einfach aus. Alles, was du wissen möchtest, findest du natürlich unter http://www.gnu.org/software/wget.

    Grüße aus Berlin

    Christoph S.

    --
    Visitenkarte
    ss:| zu:) ls:& fo:) va:) sh:| rl:|
    1. Seid gegrüßt!

      Und ist es auch möglich die URLs der Resourcen so anzupassen, dass die Seite offline funktionieren würde.
      Ups?

      Ich glaube du hast micht falsch verstanden. Ich rede nicht um den php-code, ich möchte die "fertig" generierten html-Inhalte, herunterladen. Ich möchte sozusagen eine statische "Backup"-Kopie von dynamisch generierten Inhalten anfertigen.

      An die Datenbank (MySQL) wirst du nicht herankommen. An ein PHP-Script kommst du _unter Umständen_ heran, wenn du seinen genauen Namen und die URL kennst.

      s.o.

      Probiere es einfach aus. Alles, was du wissen möchtest, findest du natürlich unter http://www.gnu.org/software/wget.

      Dort werde ich mich natürlich auch belesen - heut aber nciht mehr ... ist schon spät. Es ging mir nur um das generelle "Geht sowas?".

      --
      Bis Später
      RuD
      ________________________________________________________________
      SelfCode: ie:% fl:( br:^ va:) ls:< fo:| rl:( n4:& ss:) de:> js:| ch:| mo:| zu:)
      1. hallo,

        Ich möchte sozusagen eine statische "Backup"-Kopie von dynamisch generierten Inhalten anfertigen.

        Dann solltest du wget nicht bemühen, sondern bei den dir bereits bekannten Methoden "Ziel speichern unter" (im IE) bleiben.

        Alles, was du wissen möchtest, findest du natürlich unter http://www.gnu.org/software/wget.
        Dort werde ich mich natürlich auch belesen - heut aber nciht mehr

        Es kam mir nur darauf an, dir die Adresse anzugeben. Wann du dort nachliest, ob du dort nachliest und wieviel du davon beherzigen möchtest - das ist alles deine freie Entscheidung ;-)

        Grüße aus Berlin

        Christoph S.

        --
        Visitenkarte
        ss:| zu:) ls:& fo:) va:) sh:| rl:|
        1. Seid gegrüßt!

          Dann solltest du wget nicht bemühen, sondern bei den dir bereits bekannten Methoden "Ziel speichern unter" (im IE) bleiben.

          Das könnte wiederum eine Menge Arbeit werden und die Seiten wären dann lokal nicht untereinander verlinkt.

          --
          Bis Später
          RuD
          ________________________________________________________________
          SelfCode: ie:% fl:( br:^ va:) ls:< fo:| rl:( n4:& ss:) de:> js:| ch:| mo:| zu:)
  2. Hi,

    ich denke gelsen zu haben, dass man mit wget ganze Sieten herunterladen kann, also mit jeder Resource. Ist das wahr?

    Ja.

    Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen?

    Ja, wenn du genug Speicherplatz zur Verfügung hast sollte das kein Problem sein.

    Und ist es auch möglich die URLs der Resourcen so anzupassen, dass die Seite offline funktionieren würde.

    Ja, auch das ist möglich.

    Siehe Beschreibung zu wget (oder auch man wget).
    Dich dürften besonders die Optionen -r (für rekursiv) -l (für die Rekursionstiefe) -E (damit z.B. bei *.php-Files die Endung html angehängt wird) und -k (damit links auf die Offline-Dateien "umgebogen" werden) interessieren.

    mfG,
    steckl

    1. hallo,

      ich denke gelsen zu haben, dass man mit wget ganze Sieten herunterladen kann, also mit jeder Resource. Ist das wahr?
      Ja.

      Du solltest erwähnen, daß wget "bestandteil" (bzw. eine Abhängigkeit) in diversen Linux-Installationstools ist. apt (in Debian und seinen Derivaten), YaST (in SUSE) und emerge (in Gentoo) benutzen alle miteinander wget.

      Grüße aus Berlin

      Christoph S.

      --
      Visitenkarte
      ss:| zu:) ls:& fo:) va:) sh:| rl:|
    2. Seid gegrüßt!

      Falls dem so ist kann man auch (rekursiv) allen internen Links folgen und somit ALLE Seiten herunterladen?

      Ja, wenn du genug Speicherplatz zur Verfügung hast sollte das kein Problem sein.

      Deshalb will ich ja nur den internen Links und Resourcen folgen.

      Siehe Beschreibung zu wget (oder auch man wget).
      Dich dürften besonders die Optionen -r (für rekursiv) -l (für die Rekursionstiefe) -E (damit z.B. bei *.php-Files die Endung html angehängt wird) und -k (damit links auf die Offline-Dateien "umgebogen" werden) interessieren.

      Danke für die doch sehr genauen Infos.

      --
      Bis Später
      RuD
      ________________________________________________________________
      SelfCode: ie:% fl:( br:^ va:) ls:< fo:| rl:( n4:& ss:) de:> js:| ch:| mo:| zu:)
    3. Seid gegrüßt!

      Das funktioniert ja wunderbar. Das einzige, was nicht funktioniert, ist das herunterladen von im (externen) CSS enthaltenen Ressourcen. Aber daran versuch ich mich noch.

      --
      Bis Später
      RuD
      ________________________________________________________________
      SelfCode: ie:% fl:( br:^ va:) ls:< fo:| rl:( n4:& ss:) de:> js:| ch:| mo:| zu:)