XaraX: Neu bei Google: Google Sitemaps

Beitrag lesen

Hallo,

Blöd und sinnlos halte ich die Idee, daß man nun bei Suchmaschine X die Sitemap-Dateien erst registrieren soll. Die Suchmaschinen sind selbst gefordert zu sorgen, daß ihr Index eine gute Qualität an Content aufweist. Und nicht nur aus eingereichten Seiten von Suchmaschinen-SPAMern besteht.
Das finde ich auch. Es spräche nichts dagegen, einen MetaTag hierfür einzufügen oder einen Eintrag in der robots.txt zu definieren.

doch, dagegen spricht sehr wohl etwas. Aus Deinen eigenen Logdaten kannst Du die zeitlichen Abstände ermitteln, die google zwischen dem Durchsuchen läßt. Das Konzept der gezielten Datenanlieferung, um ein erneutes Durchsuchen anzuregen, ist wohl aus dem Konzept von Froogle entlehnt und macht bei täglichen Anpassungen (Portalnews/Artikel etc.) durchaus Sinn.

Im Gegensatz zu Lösungen wie MetaTag/"robots.news.txt" (oder was auch immer) muß nicht _mehrmals täglich alle Webs_ nach dieser durchsucht werden, sondern es werden geziehlt neue Inhalte in die Suchmaschinen eingelesen. Dieses ist mit einem MetaTag/"robots.news.txt" in dieser Präzision nicht machbar.

Vermutlich ergab sich diese Möglichkeit aus den guten Erfahrungen aus dem Projekt Froogle, daß dieses Konzept verfolgt.

Allgemein sehe ich das Risiko, Spamern hier vor den reichgedeckten Gabentisch zu platzieren, als gering an, da davon auszugehen ist, daß google bei falschen Benachrichtigungen ein Web eher keine weitere Beachtung zukommen läßt. Aber mir bleibt in einer ganz anderen Richtung ein Nachgeschmack auf der Zunge...

Gruß aus Berlin!
eddi