Ich möchte eigentlich so einfach wie möglich vorgehen. Einfach nicht im Sinne von: mir wenig Arbeit machen - dann könnte ich ein IP-Filterpaket einschleifen oder dies einem professionellem Anbieter überlassen - sondern mehr im Sinne von sparsam.
Und da der Googlebot zu den kooperativen gehört, suche ich erstmal auch nach Methoden, die genau das beherzigen.
Ich habe mir jetzt eine Strategie überlegt, wie dies gehen könnte.
Ich möchte, dass meine Seite weiterhin von Suchmaschinen gelistet wird. Ich habe auch nichts dagegen, wenn der Kalender in seiner Grundeinstellung (eine Woche Vorschau mit allen Veranstaltungen) dort gelistet wird. Allerdings sehe ich nicht ein, warum ich einem solchem Anbieter meine Daten bei Updates aktiv zur Verfügung stellen sollte. Abgesehen davon kocht jeder Anbieter sein eigenes Süppchen. Google hat seinen Zugang, Bing möchte das ebenfalls... Selbst wenn ich beispielsweise den Wunsch äußern könnte, meine Seite nur einmal täglich zu überprüfen, sehe ich das nicht ein. Ich habe keine Suchmaschine darum gebeten, meine Seiten zu listen. Wer sich benimmt, darf wiederkommen. Wer nicht, fliegt.
Aber die Zahl der Abrufe ist zu hoch. In meinem Fall kommen diese wohl dadurch zustande, dass ich auf der Kalender-Seite zur Einstellung der Parameter Links verwende, die diese mit Parametern aufrufen. Das gilt es zu verhindern.
Ich schreibe auf der (nicht im URL parametrisierten) Kalenderseite
<meta name="robots" content="nofollow"/>
und verhindere damit (hoffentlich), dass den Links (mit Parametern) gefolgt wird. Die Seite selbst wird mit Inhalt indiziert.
Außerdem frage ich vor dem Ausliefern der Seite ab, ob Parameter im URL vorhanden sind. Ist dies der Fall, ersetze ich obige Zeile durch
<meta name="robots" content="noindex, nofollow"/>
mit dem Ziel , dass Parameter-beladene Seiten nicht mehr indiziert werden und so in Kombination mit dem nofollow
aus dem Index verschwinden werden.
Wenn das nicht funktioniert, muss ich mir etwas anderes ausdenken.