dynamische .cgi in statische .html umwandeln
Kay Schaper
- cgi
Nach Hilfe gegoogelt, aber nichts gefunden. Daher meine Frage an euch:
Ich habe das Projekt spp-biomineralisation.de als dynamisch auf Perl und MySQL basierende Webseite generiert. Dabei spielte weniger die top Aktualität der Seiten, als vielmehr die leichtere Pflege der Inhalte eine Rolle. Es gibt also wenige .pl Dateien und der gewünschte Inhalt wird über ?Option1= .... etc. ausgegeben. Was ich anfangs für eine tolle Idee hielt, stellt sich jetzt aber als Problem herraus. Crawler und Bots gehen an die Dinger nicht rann, also findet Google wenig bis nix. Dann kam mir die Idee mit mod_rew, eine wirklich einfache Lösung für mein Problem und trara, der Webhoster wills nicht und ich bin so schlau als wie zuvor ;)
Ich könnte natürlich alles durch ein selbst geschriebenes Perl/PHP-Skript jagen, das mir alles in statische .html-Seiten übersetzt, nur ich schrecke etwas vor dem Aufwand zurück. Daher meine Fragen:
Gibt es schon fertige Skripte, die genau das machen und auch alle internen links absuchen und eine Ordnerstruktur erstellen?
Oder hatte schon jemand anderes ein ähnliches Problem und kann mir weiterhelfen?
Schon mal vielen Dank
Kay
Hi,
Ich könnte natürlich alles durch ein selbst geschriebenes Perl/PHP-Skript jagen, das mir alles in statische .html-Seiten übersetzt, nur ich schrecke etwas vor dem Aufwand zurück.
perl -MLWP::Simple -e "getstore('http://...', 'dateiname.html')"
Ungetestet. Mehr in der Doku zu LWP::Simple.
Cheatah
Erst mal danke für den Tipp!
Ja daran hatte ich auch schon gedacht, nur werde ich dann mit einem oneliner nicht auskommen. Ich muss wohl oder übel mit LWP::UserAgent die Seiten einlesen und dann zusätzlich noch die Links in eine HTML verträgliche Struktur ändern (also die URLcodierung in Verzeichnisse etc. aufschlüsseln) oder doch einen oneliner nehmen und Datei für Datei von Hand oder mit einem weiteren kleinen Programm durchsehen. Wie auch immer ... hab ich wohl am WE noch was vor.
/me eq 'Freizeitprogrammierer'
Hi,
Ich könnte natürlich alles durch ein selbst geschriebenes Perl/PHP-Skript jagen, das mir alles in statische .html-Seiten übersetzt, nur ich schrecke etwas vor dem Aufwand zurück.
perl -MLWP::Simple -e "getstore('http://...', 'dateiname.html')"
Ungetestet. Mehr in der Doku zu LWP::Simple.
Cheatah
Hi Kay,
Ich muss wohl oder übel mit LWP::UserAgent
warum? Reicht ein reines GET nicht aus? (Brauchst Du Cookies, Authentication etc.?)
Viele Grüße
Michael
Hi,
Ja daran hatte ich auch schon gedacht, nur werde ich dann mit einem oneliner nicht auskommen.
nein, vermutlich nicht :-)
Ich muss wohl oder übel mit LWP::UserAgent
Siehe Michaels Antwort.
die Seiten einlesen und dann zusätzlich noch die Links in eine HTML verträgliche Struktur ändern (also die URLcodierung in Verzeichnisse etc. aufschlüsseln)
Du meinst in eine Filesystem-verträgliche? Ja. Und wie Du das machen möchtest, kann keiner außer Dir wissen. Insbesondere kein Tool. _Diese_ Arbeit wird also ohnehin bei Dir bleiben.
Cheatah
Wenn Du "nur" darauf Wert legst, dass Deine Seiten bei Google gefunden werden, würde ich mir die Arbeit sparen, denn der Google-Bot z.B. stört sich an dynamisch generierten Seiten überhaupt nicht. Er legt vielmehr Wert auf valides HTML. Von daher würde ich an Deiner Stelle erstmal deine Seiten mit dem Validator checken, vielleicht.
Ich hatte auch längere Zeit das Problem, dass meine Seiten bei Google nicht gefunden wurden, erst als ich mich um valides HTML "gekümmert" habe, hat sich da was geändert......
Gruß,
Holger