Hallo zusammen,
derzeit plane ich, eine bei den meisten Suchmaschinen sehr gut zu findende Publikation auf eine weitere Domain auszudehnen. Damit wäre dann unter zwei Domains (genauer: jeweils Subdomains zweier verschiedener Domains) identischer Inhalt zu finden.
In der Google-Info habe ich 'mal den Hinweis gefunden, daß identischer Inhalt unter verschiedenen Adressen zum Ausschluß führen kann. Wie es andere Suchmaschinen handhaben, weiß ich nicht.
*Dieses* Problem ließe sich aber wohl umgehen, wenn ich mittels robots.txt und Meta-Angaben eine der beiden (Sub)Domains komplett von Suchmaschinen ausschließen würde. Die Spider besuchen nur eine (Sub)Domain, diese wird dann bei Suchanfragen angezeigt. Das kann ich akzeptieren.
Als gravierender erscheint mir das Problem, daß das Verhalten anderer Webmaster, die meine Seiten verlinken, nicht beeinflußt werden kann. Ich sehe es ja gerne, wenn die Seiten verlinkt werden; aber demjenigen, der den Link setzt, vorzuschreiben, auf welche Domain er zu verweisen hat, dürfte illusorisch sein.
Wenn aber nun 'mal auf diese und 'mal auf die andere Domain verlinkt wird, sinkt insgesamt die Zahl der Links auf die Suchmaschinen-freigebene Site. Dadurch befürchte ich einen deutlichen Einbruch im Pagerank.
Ist dies die zwangsläufige Folge meines Vorhabens, oder gibt es Abhilfe?
Freundliche Grüße,
Nikolai