Ganz grundsätzlich vorweg: Du solltest dir überlegen, was dich eigentlich genau stört. Sechsstellige Zugriffszahlen sollten für sich alleine jedenfalls kein Problem sein.
Die Zugriffszahlen stellen auch kein Problem dar. Die Fragestellung ist eher akademischer Natur, aber praxisnah.
Wenn nur 1 Promille der Zugriffe die erwünschten Besucher erreicht, dann läuft schon etwas schief. Jeder Zugriff kostet Strom, und das global nicht zu knapp.
Eine Seite, die sich selbst mit noindex versieht, landet zwar nicht im Index, wird aber nach wie vor abgerufen. Dein Problem bestünde also zumindest in Teilen nach wie vor.
Meine Hoffnung ist ja, dass der Botbetreiber darauf kommt, dass er Seiten, die er nicht indizieren soll, nicht mehr oder nicht mehr so oft abfragt.
Erfüllt sich meine Hoffnung nicht, werde ich wohl tatsächlich einen Zaun hochziehen. 403 für den Googlebot. Oder im Verdachtsfall ein Captcha.
Der Vorschlag, dem URL-Aufbau eine Pseudo-Ordnerhierarchie zu verpassen, gefällt mir. Allerdings ist es nicht ganz so einfach, denn der Zeitraum wird aus dem augenblicklichen Datum berechnet, Veranstaltungsorte und Themenbereiche (eigentlich Tags für die einzelnen Veranstaltungen) sind beliebig kombinierbar. Aber machbar wäre es. Danke jedenfalls für den Hinweis!