Axel Strube-Zettler: Beim Löschen von Seiten 404 vermeiden

Beitrag lesen

Ich habe folgendes Problem: ich möchte ein paar Hundert HTML-Seiten (ein Verzeichnis mit Unterverzeichnissen) von meinem Webspace löschen.

Eine ähnliche Aktion habe ich vor ca. 2 Jahren schonmal durchgeführt, aber dilettantisch: Hatte damals einfach das Verzeichnis gelöscht. Das Resultat war, dass noch Monate später alle vorderen Plätze in meiner Apache-Fehlerstatistik durch die gelöschten Seiten belegt wurden. Das möchte ich diesmal gern vermeiden - die Fehlerstatistik ist mir zu wichtig, da ich damit gerne echte Fehler erfassen möchte.

Wie kriege ich die Seiten weg, ohne dass Robots einen 404 verursachen? Ausserdem gibt es Tausende von Bookmarks auf die Seiten...

Ich hab erstmal ein disallow in die robots.txt gesetzt, das wird wohl etwas helfen bei manchen Robots. Aber die Seiten, die direkt über Bookmarks angefordert werden?

Gruß, Axel