hi Jürgen,
»» ... das Machwerk des Teufels ...
wenn du keinen ordentlichen Cache-Algorithmus hast, ist es das wahrlich: Warum erzeugst du statische Seiten bei jedem Aufruf neu? Warum stecken "langlebige" Inhalte in einer Datenbank auf dem Webserver?
Damit die mit meiner lokalen Suchmaschine durchsuchbar sind, damit ich von jedem Rechner der Welt aus (sofern da Perl drauf ist) meine Seiten aktualisieren kann mit einem sehr geringen Arbeitsaufwand. Die komplette Administration geht über HTTP, FTP brauche ich nur noch für CGI-Scripts und Images.
Oder läuft das Programm offline und erzeugt statische Seiten auf dem Server?
Nein. Es gibt überhaupt kein statischen Seiten (*.html) mehr. Alles, was im Browser zu sehen ist, außer CGI's, außer Images, kommt inhaltsmäßig aus der DB.
Die Ausgangsbasis war die, dass ich bisher faktisch alles doppelt hatte, sowohl .html-Dateien, als auch den Content in der DB (wg. der einfachen Durchsuchbarkeit). Daher bin ich gestern auf den Trichter gekommen, das redundante Zeugs wegzuschmeißen und da viel meine Wahl auf die *.html-Dateien, weil ich den Content in der DB ja für die Suchmaschine brauche.
Sicher gibts da noch Einiges zu durchdenken, vieleicht habt Ihr auch noch ein paar Tipps/Ideen für diese Art von Content-Management.
Danke Dir und viele Grüße an Alle,
Horst Haselhuhn
Hotte ist ein fauler Sack.