Jugl: Automatisieren von Website-Speicherung

Hallo,

ich möchte eine Reihe von Websites downloaden. Um das effizient zu erledigen, möchte ich dies automatisieren.

Die URLs sind systhematisch aufgebaut (Grund-URL plus angehängte Zahl) und enthalten die selben Bilder. Falls möglich, wäre also eine platzsparende Speicherung praktisch. Leider sind die Websites untereinander nicht verlinkt, so dass ein normaler Offline-Browser scheitern vermutlich würde.

Gibt es für diese Aufgabe eine einfache Lösung?

  1. Hallo

    ich möchte eine Reihe von Websites downloaden. Um das effizient zu erledigen, möchte ich dies automatisieren.
    Gibt es für diese Aufgabe eine einfache Lösung?

    mit einer kleinen Stapelverarbeitungsdatei sollte sich das in wenigen Zeilen lösen lassen. Solche Shellskripte lassen sich unter Windows wie unter *nix oder Linux mit wenigen Zeilen schreiben.

    Der Thread Website komplett herunterladen gibt Dir ein paar Tipps, welche Programme Du mit Deinem Skript aufrufen könntest.

    Freundliche Grüße

    Vinzenz

    1. Danke, hat geklappt! Vor allem, weil man HTTrack die URLs in einer Textdatei übergeben kann. Etwas unschön ist zwar die Umbenennung der Dateien, da werd ich mal etwas basteln, wenn ich wieder Zeit hab.

      Hallo

      ich möchte eine Reihe von Websites downloaden. Um das effizient zu erledigen, möchte ich dies automatisieren.
      Gibt es für diese Aufgabe eine einfache Lösung?

      mit einer kleinen Stapelverarbeitungsdatei sollte sich das in wenigen Zeilen lösen lassen. Solche Shellskripte lassen sich unter Windows wie unter *nix oder Linux mit wenigen Zeilen schreiben.

      Der Thread Website komplett herunterladen gibt Dir ein paar Tipps, welche Programme Du mit Deinem Skript aufrufen könntest.

      Freundliche Grüße

      Vinzenz