seth: versionierung wie in einem wiki; 404-meldungen mit dynamischen content

Beitrag lesen

gudn tach!

Soweit ich weiß, ging es darum, unnötige Namespaces loszuwerden. Wenn ich die Namespaces dann als Redirs im Wiki behalte, ist das Ziel nicht erreicht.

tatsaechlich geht das. man kann einen namespace "Doku" loeschen und trotzdem "Doku:Hudelsprudel" anlegen (z.b. auch als redirect), ohne dass diese seite dann jenem namespace zugeordnet wird (da jener namespace ja gar nicht mehr existiert).

Deswegen meinte ich, dass man da irgendwie in die Wiki-Navigation eingreifen müsste, um den Namespace Doku: nicht mehr im System zu haben und trotzdem Links wie "Doku:Foo" automatisch auf "Foo" umzuleiten.

der doppelpunkt ist an sich kein irgendwie geschuetztes zeichen im mediawiki, deswegen gibt's z.b. https://de.wikipedia.org/wiki/Tatort:_Schlangengrube ohne dass es den namespace "Tatort" gibt. dafuer ist keine code-aenderung oder extension noetig. das geht out-of-the-box.

Keine Ahnung, ob man das mit einem Hook erledigen kann.

ich glaube, ich wuerde es eher ueber eine regel im apache erledigen. gerade wenn /^Doku:(.*)/ auf $1 gemappt wurde, liesse sich das mit nur einer zeile erschlagen.

Was Bots tun können und welche Bots wir ggf. hätten, weiß ich nicht. An der Ecke von Wikimedia kenne ich mich „null komma gar nicht“ aus.

das wollte ich dir auch keinesfalls vorwerfen, sondern nur dem "geht nicht" und "musste so sein" etwas entgegensetzen. denn meiner erfahrung nach sagt man gerade, wenn es um solche weiterleitungsgeschichten geht, vorschnell, dass das nicht gehe.

erwartet etwas, bekommt aber was anderes

Ich weiß. "Good URLs never change".

genau. :-)

Im Wiki gibt es eine Menge Redirects, die durch verschiedene Umstrukturierungen entstanden. Das zu Verwalten ist eine Heidenarbeit.

dass sowas arbeit macht, ist klar. aber entweder man laesst die arbeit halt die webdevs erledigen oder die besucher. mal abgesehen davon, dass es eine frage der user experience ist, sehe ich es auch einfach web-oekonomisch sinnvoller, eine arbeit nur ein mal [von webdevs] machen zu lassen und nicht [von jedem user] immer wieder.

Das ist ärgerlich für User, die sich irgendwelche Artikel gebookmarked haben, ja.

nicht nur fuer die. wie gesagt sind links ueberall im www verstreut und werden haeufig nicht aktualisiert. teilweise sind urls ja sogar in printmedien zu finden.

und an webarchaeologie findet halt nicht jeder gleich grossen gefallen.

Aber so schwer ist es auch nicht, sich einen benötigten Inhalt schnell mal herauszusuchen. Finde ich.

das kommt auf mehrere dinge an, z.b. auf das vorwissen des users und auf die usability der jeweiligen website.

das selfhtml-wiki ist recht gut und uebersichtlich strukturiert und die zielgruppen werden wohl schon hinreichend technik-affin sein, um die inhalte zu finden. (auch wenn ich tatsaechlich ohne deinen kommentar ueber den geloeschten namespace nicht so schnell die perl-history gefunden haette.)

es gibt jedoch groessere/unuebersichtlichere websites, wo man sich mitunter einen wolf sucht. da ist es dann besonders aergerlich, wenn alte links nicht mehr funzen. und fuer weniger technik-affine leute potenziert sich das noch.

gruss

seth