Leider hat mein Vorgehen wenig geändert.
Ich nehme an, der Grund hierfür ist, dass auch der Seitenname als Parameter - nämlich =kalender
- übertragen wird. Der Gedanke ist mir gekommen, als ein weiterer bot die Seite gecrawlt hat und dabei die Parameter anders angeordnet hat, sodass der Seitenname nicht als erster Parameter auftauchte.
Den Abruf
example.com/content.php?page=kalender&p1=x&p2=y&p3=z
für robots per 301 umzuleiten nach
example.com/content.php?page=kalender
funktioniert offenbar leider nicht.
Ich glaube, dass die Robots feststellen, dass die alten Links noch funktionieren, dass eine Umleitung auf die Grundversion vorhanden und (manchmal) erlaubt ist, dass sie aber nicht dazu in der Lage sind, zu unterscheiden, dass bestimmte Parameter für sie verboten werden. Wenn ich davon ausgehe, dass also die erste Indizierung der Seite letztlich der Grund für die späteren Überprüfungen sind, muss ich die Seite aus dem Index verschwinden lassen.
Was mache ich jetzt?
Die Seite rausnehmen und "neu" durch example.com/content.php?page=kalendarium&p1=x&p2=y&p3=z
ersetzen? Dann mit dem meta noindex
, falls sie mit Parametern außer dem Seitennamen aufgerufen wird?
Dann wäre die Seite neu und die alten Links tot. Nachteil wäre, dass auf die alte Seite gesetzte Bookmarks ungültig werden und die neue Seite auch nicht gleich in den Suchindizes auftaucht (was beides keine Katastrophe wäre).
Nachtrag: kaum geschrieben, schon zu korrigieren. Seit 1. Februar hält sich der Googlebot stark zurück. Nr. 1 der Liste ist jetzt der Bingbot. Vielleicht braucht der noch ein paar Tage länger.
Nachtrag2: Das gilt aber nur für die vom Provider gelieferte Statistik... Und das heißt, für ausgelieferte Seiten und nicht die ganzen Anfragen mit Umleitung, die dann nicht abgefragt werden - so erklärt sich das Überholen des Bingbots.