Internetseite selektiv speichern
Kurt Salzmann
- https
0 Jeena Paradies0 fastix®0 fastix®0 Kurt Salzmann0 fastix®
Problem
Ich habe in einen Fotoforum 1000 Bilder online zu werden fleissig Kommentare geschrieben.
Nun Möchte ich die Seite samt layout Kommentaren und Bildern speichern und archivieren.
Das geht mit dem Explorer mit 'speichern unter...'
Das ist aber ganz schön mühsam. Und ein nachträgliches Bearbeiten der Dateien ist langwierig.
Gibt es ein Tool zum downloaden von dynamischen Internetseiten, dass es erlaubt die runtergeladen Dateien zu strukturieren. Nach Name, Speicherort , und so weiter.
Zusätzlich brauche ich ein Tool mit dem ich diese Dateien in einem Arbeitsgang bearbeiten kann. Mata Tags, Scripte und einzelne Tabellen sollten man damit löschen können egal was für ein Inhalt. Mit Dreamwaver geht das, aber nicht mit 1000 HTML Dateien in einem Gang. Mit Pahse5 geht es auch aber alles andere als zuverlässig.
Wer hat einen Tipp? Danke!
Hallo,
Du willst wirklich 1000 Statische Seiten bearbeiten, die gleich aussehen? Welches Betriebssystem hast du?
Unter Unix/Linux wäre das mit grep und sed zu lösen. http://www.fh-wedel.de/~si/vorlesungen/internet/Unix/RegulaereAusdruecke.html
Mit Perl kanns du das auch machen http://www.ctssn.com/linux/perlReplacementScript.html
Grüße
Jeena Paradies
Du willst wirklich 1000 Statische Seiten bearbeiten, die gleich aussehen? Welches Betriebssystem hast du?
Jo - habe ich schon für das nächste mal möchte ich das einfacher gestalten.
http://salzmaenner.steinernet.ch/fc/fc-save-22-11-2003/index06.html
Viele Grüsse Kurt Salzmann
Moin!
Gibt es ein Tool zum downloaden von dynamischen Internetseiten, dass es erlaubt die runtergeladen Dateien zu strukturieren. Nach Name, Speicherort , und so weiter.
Man nennt soetwas "Datenbank".
Zusätzlich brauche ich ein Tool mit dem ich diese Dateien in einem Arbeitsgang bearbeiten kann. Mata Tags, Scripte und einzelne Tabellen sollten man damit löschen können egal was für ein Inhalt.
Man nennt soetwas Content Management System (CMS).
Mit Dreamwaver geht das, aber nicht mit 1000 HTML Dateien in einem Gang. Mit Pahse5 geht es auch aber alles andere als zuverlässig.
Schaffe eine Trennung von:
Wer hat einen Tipp? Danke!
Perl oder PHP, MySQL, Apache installieren und programmieren lernen. Das dauert zwar, hilft aber nachhaltig.
(Und) Oder Du beschäftigst Dich mal mit OpenCMS http://www.opencms.org/opencms/en/
MFFG (Mit freundlich- friedfertigem Grinsen)
fastix®
Moin!
Dir sei auch noch http://www.cmsinfo.org/ nahegelegt, da OpenCMS Java und JSP benötigt, was bei eher selten zur Verfügung steht. (Aber "free & open" ist.)
MFFG (Mit freundlich- friedfertigem Grinsen)
fastix®
Perl oder PHP, MySQL, Apache installieren und programmieren lernen.<<<<< (PHP Easy) ;-)
Habe mit allem schon gearbeitet. Aber die Aufgabe wäre nickt ganz so leicht zu lösen wie du dir das vorstellst.
Den die Daten sind unter 1 Million anderer Bilder und 10 Millionen Anmerkungen aus zu filtern verteilt auf 5 Server mit einen IP's.
Ich habe die Seiten schon aber eben statisch gespeichert von dynamisch War harte Arbeit mit dem Texteditor.
http://salzmaenner.steinernet.ch/fc/fc-save-22-11-2003/index06.html
Viele Grüsse Kurt Salzmann
P.S könntest mir ja ein Script programmieren....
Moin!
Perl oder PHP, MySQL, Apache installieren und programmieren lernen.<<<<< (PHP Easy) ;-)
Habe mit allem schon gearbeitet. Aber die Aufgabe wäre nickt ganz so leicht zu lösen wie du dir das vorstellst.
Es ist nie so leicht wie man es sich vorstellt... mal schwerer, mal leichter.
Ok... PHP wäre wohl nicht unbedingt geeignet. Ich würde hier Perl und eine DB vorziehen, ggf. die Seiten lokal statisch generieren lassen und dann auf den Server übertragen. Aber ich habe kein Pflichtenheft... das ist also Spekulation.
P.S könntest mir ja ein Script programmieren....
Das wäre bestimmt eine nette Fleissarbeit. Wie zahle ich derweil die Miete?
Eine Kontaktmöglichkeit findet sich über den Link.
MFFG (Mit freundlich- friedfertigem Grinsen)
fastix®