Hi,
Bevor wir online gehen, machen wir uns Gedanken wie man das ganze sinnvoll für Google aufbereitet. Viele Leute legen sehr viel Wert auf XML Sitemaps die man für Google für die Seite einreicht.
Diese „vielen Leute“ sind am Projekt beteiligte?
Grob überschlagen würde ich pro Datensatz in soeiner Sitemap jedoch etwa 200 Bytes brauchen und die Sitemap würde etwa 4 MB umfassen.
Aufgrund der Menge der Einträge frage ich mich, ob Google eine solche Masse an Seiten/Einträgen in einer Sitemap akzeptiert und damit auch umgehen kann oder ob amn bei solchen Datenbank anders vor geht?
http://en.wikipedia.org/wiki/Sitemaps
Insb. die Punkte 2.2) Sitemap index und 5) Sitemap limits dürften interessant sein.
Ziel wäre es natürlich, das man jedes Produkt in der Google Suche finden kann (mal abgesehen von der Position)
Na ja, die wird Google mit der Zeit auch selber finden, wenn sie vernünftig verlinkt sind.
Wenn du Google einfach eine Riesenmenge URLs in Sitemaps vor den Latz knallst - dann könnte das eher als Spam angesehen werden.
Vor allem changefreq und priority würde ich dann wohlüberlegt einsetzen, damit das ganze auf Google keinen „hier komm' ich, und natürlich sind alle meine Links die superwichtigsten überhaupt“-Eindruck macht.
MfG ChrisB
“Whoever best describes the problem is the person most likely to solve the problem.” [Dan Roam]