Hi!
Der Ajax-Request findet für einen Browser auf alle Fälle statt und der Bot ist nun befähigt worden, in ebendiesen automatischen Fällen denselben Inhalt wie ein Browser zu sehen.
Ah alles klar. In dem Artikel ist das IMHO nicht so rausgekommen. AJAX kann ja weit mehr als autmatisch beim Seitenaufruf einige Daten laden.
Deswegen verwies ich auch noch auf den im Golem-Artikel nicht verlinkten Google-Blog-Eintrag, denn da sind Beispiele angegeben.
Der AJAX-Inhalt ist ja AJAX-Inhalt, weil er dynamisch geladen wird. Hat Google dann nicht ein Problem mit veralteten Indexierungsdaten?
Nicht mehr und nicht weniger als mit Inhalten, die auf Nicht-Ajax-Seiten stehen und sich ständig ändern.
Weil der Crawler kann ja nicht aller 10 Minuten nachsehen, ob sich bei einer noname-AJAX-Seite der Startseitencontent verändert hat.
Wenn die noname ist, ist sie vielleicht weniger interessant. Die Besuchshäufigkeit des Bots hängt unter anderem auch von der Häufigkeit der Änderungen ab. Die Hauptseite einer Zeitung wird sicher mehrfach am Tag Besuch bekommen (schon wegen Google News), die Seite im Archiv eher seltener.
Wenn ich mir jetzt eine Seite programmiere, die per AJAX alle halbe Stunde einen anderen Newsbeitrag lädt, woher weiß Google das, und bietet dann dem Sucher keine unnützen Infos?
Das bekommt der Bot irgendwann mit. Wenn zwischen seinen Besuchen sich etwas ändert, erhöht er die Frequenz.
Lo!