Nach deiner vorherigen Beschreibung stimmt das so ja nicht. Es ist ja nicht so, dass wegen der Aufrufe von Bots die „erwünschten Besucher“ von den verfügbaren Daten nichts mehr abbekommen sondern wohl eher so, dass das Verhältnis der Requests von Bots und „erwünschten Besuchern“ 999 zu 1 beträgt.
Korrekt - es findet keine Verdrängung statt. Die Quote wird sogar noch etwas besser, wenn man berücksichtigt, dass nicht alle Bots nur Unsinn machen. Im Index aufzutauchen, ist ja durchaus erwünscht. Und dass dynamischer Inhalt auch öfter gecrawlt werden muss als statischer, ist auch klar.
Ich habe meine Vorgehensweise jetzt geändert.
Die Kalenderseite hat ein nofollow
erhalten, die Kalenderseite mit Parametern ein zusätzliches noindex
.
Jeder Besucher der Kalenderseite, der sich zukünftig als bingbot oder Googlebot ausgibt und dabei die zusätzlichen Parameter im URL mit sich führt, wird per freundlichem 301-redirect auf die parameterlose Kalenderseite geleitet.
Hält sich Google an seine eigenen Vorgaben, sollte im Index dann nur noch die parameterfreie Version gelistet werden.
Google selbst nennt die 301 als Empfehlung für umgezogene Seiten; auch wenn das hier nicht zutifft, lässt sich dieser Mechanismus hierfür nutzen.