Tach!
Also insgesamt finde ich ca. 8500 Seiten in wiki.sqlite. Für eine Offlineversion jedoch dürften davon ca. 1/4 übrig bleiben, also ca 400 Einzelseiten.
So kann man nicht rechnen. Es sind zwar nur ca. 2700 Inhaltsseiten, aber das heißt nicht, dass der Rest entbehrlich ist. Eine Menge Seiten sind Weiterleitungen, einerseits aus historischen Gründen, andererseits damit die Suchmaschine Stichwörter finden kann, die auf anders benannten Seiten abgehandelt werden.
Möglichwerseise bietet ja auch Mediawiki selbst eine Exportfunktion wo gerendertes text/html hinten rauskommt. Das würde die Wartung ungemein erleichtern.
Ja, die kann man ansprechen als Extension (hier nicht weiter relevant) oder als Maintenance-Script.
Und es ist ja nicht so, dass mir diese Idee nicht gekommen ist. Die Umsetzung hab ich dann aber abgebrochen. Nackiges gerendertes HTML des Hauptinhaltes sieht nämlich nicht besonders hübsch aus. Da muss neben dem Seitenrahmen noch CSS und gegebenenfalls Javascript hinzu, um Optik und die Funktionalitäten des Wikis bereitzustellen. Und da kam man dann vom Hundersten ins Tausendste, was alles zu beachten gewesen wäre. Der Resource Manager von Mediawiki, der das Zeug bündelt und einbindet ist der Punkt, an dem bereits andere Projekte aufgegeben haben.
Nächster Punkt war, dass aus Seitentiteln wie beispielweise "HTML/Tutorials" oder "Kategorie:HTML" irgendwie ein Dateiname erstellt werden muss, der im Dateisystem erlaubt ist. Und dann müssen die Links auf diese Seiten/Dateien auch noch für das Funktionieren bearbeitet werden.
Letztlich wollte ich dann auch nicht Mediawiki nachprogrammieren und für alle Eventualitäten eine Extrawurst erfinden, und hab mich für eine abgespeckte Version des kompletten Ökosystems Webserver, PHP, Mediawiki und Datenbestand entschieden. Das fand ich einen guten Kompromiss nach Abwägung der möglichen Vorgehensweisen.
dedlfix.