wie ihr vielleicht wisst, betreibe ich den Veranstaltungskalender remso.de / remso.eu, der recht viele Zugriffe hat. Alle paar Sekunden wird eine Veranstaltung aufgerufen. Jeder Besucher der Hauptseite kann es online verfolgen, da ich per Ajax alle 10 Sekunden die zuletzt aufgerufene Seite einblende.
Aber ich denke, der Schein trügt. Die Seiten werden von Maschinen aufgerufen, kein Mensch liest mit. Dieser Verdacht erhärtete sich, als ich die von Hand eingegebenen, gesuchten Veranstaltungsorte online stellte. Es sind weniger als 10 pro Tag.
Wenn ich einen unendlichen url-Raum zur Verfügung stelle, und jede Seite wiederum Links in diesen Raum enthält, dann sieht ein Index-Bot immer mehr Links.
Das ist bei dir der Fall, besonders da du ja Abfragen zu unsinnigen Orten (sie geben keine Veranstaltungen zurück) erlaubst.
Dein Problem ist also, dass deine Linkangebote in keinem Verhältns zu realen Veranstaltungsräumen sind.
Du hast dir damit ein Problem (unnötige Serverlast) geschaffen, das man nur sehr gezielt pro Bot wieder entfernen kann (Status 410 für jeden unerwünschten bereits indexierten Link)
Zwar ist es schön, von Suchmaschinen beachtet zu werden. Aber in Wirklichkeit bin ich an realen Menschen interessiert. Wie könnte man diese Zahl ermitteln?
Falsch, du solltest erst mal fragen, was eine Seite in einem SERP, die dem Besucher keine Veranstaltungen liefert, wenn die Seite navigiert wird, soll. Das ist nicht schön, sondern zu beheben.
mfg Beat