Zwischenstand
bearbeitet von fieturLeider hat mein Vorgehen wenig geändert.
Ich nehme an, der Grund hierfür ist, dass auch der Seitenname als Parameter - nämlich `=kalender` - übertragen wird. Der Gedanke ist mir gekommen, als ein weiterer bot die Seite gecrawlt hat und dabei die Parameter anders angeordnet hat, sodass der Seitenname nicht als erster Parameter auftauchte.
Den Abruf
`example.com/content.php?page=kalender&p1=x&p2=y&p3=z`
für robots per 301 umzuleiten nach
`example.com/content.php?page=kalender`
funktioniert offenbar leider nicht.
Ich glaube, dass die Robots feststellen, dass die alten Links noch funktionieren, dass eine Umleitung auf die Grundversion vorhanden und (manchmal) erlaubt ist, dass sie aber nicht dazu in der Lage sind, zu unterscheiden, dass bestimmte Parameter für sie verboten werden.
Wenn ich davon ausgehe, dass also die erste Indizierung der Seite letztlich der Grund für die späteren Überprüfungen sind, muss ich die Seite aus dem Index verschwinden lassen.
Was mache ich jetzt?
Die Seite rausnehmen und "neu" durch `example.com/content.php?page=kalendarium&p1=x&p2=y&p3=z` ersetzen? Dann mit dem meta `noindex`, falls sie mit Parametern außer dem Seitennamen aufgerufen wird?
Dann wäre die Seite neu und die alten Links tot. Nachteil wäre, dass auf die alte Seite gesetzte Bookmarks ungültig werden und die neue Seite auch nicht gleich in den Suchindizes auftaucht (was beides keine Katastrophe wäre).
-------------------------------------
Nachtrag: kaum geschrieben, schon zu korrigieren.
Seit 1. Februar hält sich der Googlebot stark zurück. Nr. 1 der Liste ist jetzt der Bingbot. Vielleicht braucht der noch ein paar Tage länger.
Zwischenstand
bearbeitet von fieturLeider hat mein Vorgehen wenig geändert.
Ich nehme an, der Grund hierfür ist, dass auch der Seitenname als Parameter - nämlich `=kalender` - übertragen wird. Der Gedanke ist mir gekommen, als ein weiterer bot die Seite gecrawlt hat und dabei die Parameter anders angeordnet hat, sodass der Seitenname nicht als erster Parameter auftauchte.
Den Abruf
`example.com/content.php?page=kalender&p1=x&p2=y&p3=z`
für robots per 301 umzuleiten nach
`example.com/content.php?page=kalender`
funktioniert offenbar leider nicht.
Ich glaube, dass die Robots feststellen, dass die alten Links noch funktionieren, dass eine Umleitung auf die Grundversion vorhanden und (manchmal) erlaubt ist, dass sie aber nicht dazu in der Lage sind, zu unterscheiden, dass bestimmte Parameter für sie verboten werden.
Wenn ich davon ausgehe, dass also die erste Indizierung der Seite letztlich der Grund für die späteren Überprüfungen sind, muss ich die Seite aus dem Index verschwinden lassen.
Was mache ich jetzt?
Die Seite rausnehmen und "neu" durch `example.com/content.php?page=kalendarium&p1=x&p2=y&p3=z` ersetzen? Dann mit dem meta `noindex`, falls sie mit Parametern außer dem Seitennamen aufgerufen wird?
Dann wäre die Seite neu und die alten Links tot. Nachteil wäre, dass auf die alte Seite gesetzte Bookmarks ungültig werden und die neue Seite auch nicht gleich in den Suchindizes auftaucht (was beides keine Katastrophe wäre).
-------------------------------------
Nachtrag: kaum geschrieben, schon zu korrigieren.
Seit 1. Februar hält sich der Googlebot start zurück. Nr. 1 der Liste ist jetzt der Bingbot. Vielleicht braucht der noch ein paar Tage länger.
Zwischenstand
bearbeitet von fieturLeider hat mein Vorgehen wenig geändert.
Ich nehme an, der Grund hierfür ist, dass auch der Seitenname als Parameter - nämlich `=kalender` - übertragen wird. Der Gedanke ist mir gekommen, als ein weiterer bot die Seite gecrawlt hat und dabei die Parameter anders angeordnet hat, sodass der Seitenname nicht als erster Parameter auftauchte.
Den Abruf
`example.com/content.php?page=kalender&p1=x&p2=y&p3=z`
für robots per 301 umzuleiten nach
`example.com/content.php?page=kalender`
funktioniert offenbar leider nicht.
Ich glaube, dass die Robots feststellen, dass die alten Links noch funktionieren, dass eine Umleitung auf die Grundversion vorhanden und (manchmal) erlaubt ist, dass sie aber nicht dazu in der Lage sind, zu unterscheiden, dass bestimmte Parameter für sie verboten werden.
Wenn ich davon ausgehe, dass also die erste Indizierung der Seite letztlich der Grund für die späteren Überprüfungen sind, muss ich die Seite aus dem Index verschwinden lassen.
Was mache ich jetzt?
Die Seite rausnehmen und "neu" durch `example.com/content.php?page=kalendarium&p1=x&p2=y&p3=z` ersetzen? Dann mit dem meta `noindex`, falls sie mit Parametern außer dem Seitennamen aufgerufen wird?
Dann wäre die Seite neu und die alten Links tot. Nachteil wäre, dass auf die alte Seite gesetzte Bookmarks ungültig werden und die neue Seite auch nicht gleich in den Suchindizes auftaucht (was beides keine Katastrophe wäre).