Hi,
Wie schaffe ich es jedoch, über die htaccess den spidern zu sagen, das sie nur die www.meineseite.at spidern sollen, damit ich keinen duplicate Content habe?
Zumindest bei Google (die anderen sind eh nicht relevant >:->) kann man es bei den Webmaster-Tools einstellen, ob man "www" haben möchte oder nicht.
Ansonsten wäre eine spontane Idee (habe selber keine Probleme mit Double Content), die robots.txt von einem PHP erzeugen zu lassen, und wenn die Resource als example.com/robots.txt angefordert wird, alles verbieten, wenn als www.example.com/robots.txt alles erlauben.
Gruß, Cybaer
--
Zweck des Disputs oder der Diskussion soll nicht der Sieg, sondern der Gewinn sein.
(Joseph Joubert, Schriftsteller)
Zweck des Disputs oder der Diskussion soll nicht der Sieg, sondern der Gewinn sein.
(Joseph Joubert, Schriftsteller)