SEO. Angst vor Duplicate Content aufgrund von Tags
john
- sonstiges
Hallo..
Bei meinem Social Bookmarking Dienst gibt es nun Tags an jedem Bookmark.
D.h. verschieden Wörter die auf den Link zutreffen.
Wenn man auf einen tag klickt, dann werden alle Seiten mit diesem Tag angezeigt.
Nun habe ich Angst das Google es als Duplicate Content werten könnte.
Denn wenn ich example.com mit den tags "foo" und "bar" habe und anschließend auf beide klicke, bekomme ich zwei mal genau die selbe Seite. Nur im Titel ein anderes Wort.
Das Problem liegt einfach darin, das bisher zu wenig Bookmarks vorhanden sind, als das pro Tag genügend verschiedene Bookmarks vorhanden sind, damit Google es nicht als DC wertet.
Mein Plan wäre jetzt in der robots.txt den Bereich /Tags/
auszuschließen und erst fürs Crawling zu öffnen, wenn die Seite gewachsen ist.
Was haltet ihr davon?
Hallo,
Google, Microsoft und Yahoo haben sich dazu was ausgedacht
Gruß
Ole
Hallo Ole.
Das ist mir schon bewusst.
Allerdings ist das nicht wirklich zu machen.
Pass auf.
Alle Bookmarks haben Kategorien:
example.com mit den tags foo,bar ist in Kategorie foobar
Ich finde sie also unter
/Kategorie/foobar
/Tags/foo
/Tags/bar
In jedem dieser Kategorie werden aber auf Dauer gaaaanz viele verschiedene Inhalte sein. Also heißt es ledigleich, das die gleichen Links auf verschiedenen Seiten sind.
Der insgesammte Inhalt ist jedoch verschieden.
Es kann also sein das es später so aussieht:
/Kategorie/foobar
exmaple1.com, exmaple2.com, exmaple3.com
/Tags/foo
exmaple1.com, exmaple5.com, exmaple6.com
/Tags/foo
exmaple50.com, exmaple332.com, exmaple1.com
Es sind also 3 verschiedene Seiten die in diesem Fall einen Link gemeinsam haben.
Aussschließen? Oder Google mehr Links geben?
Hi,
In jedem dieser Kategorie werden aber auf Dauer gaaaanz viele verschiedene Inhalte sein. Also heißt es ledigleich, das die gleichen Links auf verschiedenen Seiten sind.
Und was siehst du daran problematisch?
Der insgesammte Inhalt ist jedoch verschieden.
D.h., die Links verweisen auf bestimmte Inhalte, die sich ihrerseits *nicht* ändern?
Es kann also sein das es später so aussieht:
/Kategorie/foobar
exmaple1.com, exmaple2.com, exmaple3.com/Tags/foo
exmaple1.com, exmaple5.com, exmaple6.com/Tags/foo
exmaple50.com, exmaple332.com, exmaple1.comEs sind also 3 verschiedene Seiten die in diesem Fall einen Link gemeinsam haben.
Aussschließen?
In diesen Auflistungsseiten die Indizierung dieser Seiten selber zu untersagen, das Verfolgen der enthaltenen Links aber ausdrücklich zu erbitten, wäre vermutlich angebracht.
Oder Google mehr Links geben?
Worauf? Wozu?
MfG ChrisB
Und was siehst du daran problematisch?
Das es derzeit als DC angesehen wird.
Der insgesammte Inhalt ist jedoch verschieden.
D.h., die Links verweisen auf bestimmte Inhalte, die sich ihrerseits *nicht* ändern?
Siehe nächstes Beispiel:
Es kann also sein das es später so aussieht:
/Kategorie/foobar
exmaple1.com, exmaple2.com, exmaple3.com/Tags/foo
exmaple1.com, exmaple5.com, exmaple6.com/Tags/foo
exmaple50.com, exmaple332.com, exmaple1.com
In diesen Auflistungsseiten die Indizierung dieser Seiten selber zu untersagen, das Verfolgen der enthaltenen Links aber ausdrücklich zu erbitten, wäre vermutlich angebracht.
Hm..
Oder Google mehr Links geben?
Worauf? Wozu?
Weil Google auch die Größe der Website zu schätzen weiß.
Hi,
Und was siehst du daran problematisch?
Das es derzeit als DC angesehen wird.
Worauf stützt sich diese Annahme/Beobachtung?
MfG ChrisB
Auf meiner Logik.
Denn wenn meine Seite z.b. zwei Seiten so aussehen:
Hallo lieber Besucher.
Hier sind alle Bookmarks zum Thema X.
Link A
Hallo lieber Besucher.
Hier sind alle Bookmarks zum Thema Y.
Link A
Dann ist dieses Y = ein Wort Unterschied.
Wäre ich google würde ich dies als DC werten.
Hi,
Hallo lieber Besucher.
Hier sind alle Bookmarks zum Thema X.
Link AHallo lieber Besucher.
Hier sind alle Bookmarks zum Thema Y.
Link ADann ist dieses Y = ein Wort Unterschied.
Wäre ich google würde ich dies als DC werten.
Wäre ich Google, dann würde ich daraus, dass beide Seiten hauptsächlich aus ausgehenden Links bestehen, schon schliessen, dass beide Seiten eigentlich gar keine besonders wichtigen sein können - und den Stellen im Netz, auf die sie verlinken, viel höhere Bedeutung beimessen.
Und von dir als Webmaster würde ich an Googles Stelle erwarten, dass du mich in dieser Vermutung bestätigst, in dem du die beiden oben genannten Ressourcen schon wie bereits erwähnt, (per Meta-Element) mit Hinweisen ausgestattet hast, dass ihr Inhalt nicht indiziert zu werden braucht, und den ausgehenden Links aber bitte gefolgt werden soll.
MfG ChrisB
Hallo lieber Besucher.
Hier sind alle Bookmarks zum Thema X.
Link A
...
Und von dir als Webmaster würde ich an Googles Stelle erwarten, dass du ... die beiden oben genannten Ressourcen schon wie bereits erwähnt, (per Meta-Element) mit Hinweisen ausgestattet hast, dass ihr Inhalt nicht indiziert zu werden braucht, und den ausgehenden Links aber bitte gefolgt werden soll.
Damit jemand der nach Thema X sucht die Seite in der Suchmaschine nicht finden kann?
Hi,
Und von dir als Webmaster würde ich an Googles Stelle erwarten, dass du ... die beiden oben genannten Ressourcen schon wie bereits erwähnt, (per Meta-Element) mit Hinweisen ausgestattet hast, dass ihr Inhalt nicht indiziert zu werden braucht, und den ausgehenden Links aber bitte gefolgt werden soll.
Damit jemand der nach Thema X sucht die Seite in der Suchmaschine nicht finden kann?
Er kann die einzelnen Ressourcen finden, die sich mit dem Thema explizit beschäftigen, und die auf deiner Seite verlinkt wurden.
Wozu sollte er stattdessen deine Seite finden wollen?
Die Suchmaschine ist bereits ein Tool, dass ihm eine Auswahl möglichst passender Adressen auflistet.
Wozu sollte diese erst auf eine weitere Seite, die auch wieder eine Auswahl von Links präsentiert, verweisen?
Dort erneut erst mal meine präferierte Auswahl unter den angebotenen Links treffen zu müssen, wäre für mich als Nutzer doppelter Aufwand.
Wenn deine Seite lediglich ein Social Bookmarking-Service oder vergleichbares ist - dann solltest du dir klar machen, dass Suchmaschinen nicht deine bevorzugte Kundschaft sein können oder überhaupt sein sollten.
Begnüge dich damit, den Nutzern die über deine Seite auf die Suche nach für sie interessanten Links gehen, deine Daten bestmöglich strukturiert und aufbereitet zu präsentieren. Wenn ich deine Seite mal für sowas nutze, werde ich dir dankbar sein.
Verschmutze aber bitte nicht Suchmaschinen mit für mich im anderen Fall wertlosen Informationen, die sich vor die für mich wirklich interessanten (nämlich die *direkten* Adressen, die sich auch verlinkt in deinen Seiten befinden) zu schieben versuchen.
(Zum Glück sorgen die Suchmaschinen zum Teil selber schon dafür, dass sowas aus ihren Ergebnislisten ausgefiltert wird.)
Wenn du den Suchmaschinen Konkurrenz machen willst - dann kümmere dich um Optimierung an deinem eigenen Service; baue aber nicht darauf, dass die Suchmaschinen dich dabei noch nach Kräften unterstützen würden.
MfG ChrisB
Nun habe ich Angst das Google es als Duplicate Content werten könnte.
Domainintern ist DC kein Problem so viel ich weiß. Da sich der Zustand bald ändern wird, würde ich mir nicht zu viele Gedanken machen.
Search Engine Optimization ist oft der Versuch, die Suchmaschine auszutricksen, um bei den Ergebnisseiten so weit wie möglich oben zu landen. Das ist jedoch schlechte SEO.
Das Problem bei diesem Ansatz besteht zwangsläufig darin, dass die Entwickler von Suchmaschinen solche Tricksereien schnell durchschauen und ihre Programme so erweitern, dass sie schon bald nicht mehr funktionier
Ein guter Ansatz kann darin bestehen, bestimmte Inhalte aus der Erfassung auszuklammern, so wie hier auf dem Thread vorgeschlagen. Doch das Ausklammern von Inhalten kann auf lange Frist keine Lösung darstellen, da es die Inhalte sind, die von den Suchmaschinen indiziert werden.
Der beste Ansatz für echte Optimierung besteht darin, aussagekräftigen, semantischen Code mit echten Inhalten auszuliefern, bei denen bspw. Links, die für die Suchmaschine keine Rolle spielen sollen, entsprechend mit rel="nofollow" markiert sind. Diese Seiten werden auch dann noch oben auf der Suchergebnisseite stehen, wenn die übernächste Reihe von Tricks ausgeschaltet wurde.
Gruß, LX
Ein guter Ansatz kann darin bestehen, bestimmte Inhalte aus der Erfassung auszuklammern, so wie hier auf dem Thread vorgeschlagen. Doch das Ausklammern von Inhalten kann auf lange Frist keine Lösung darstellen, da es die Inhalte sind, die von den Suchmaschinen indiziert werden.
Der Ansatz ist in dem Fall von Beginn an sinnlos. Wenn zwei urls einer domain den gleichen Inhalt ausliefern und die Suchmaschine das merkt, kommt nur eine url in den Index. Man könnte durch irgendwelche Maßnahmen höchstens versuchen zu bestimmen welche der beiden urls das ist. Welchen Sinn soll das haben, wenn beide Inhalte gleich sind und beide urls gewünscht sind? Wenn sich die Inhalte später unterscheiden, dann werden auch beide Seiten in den Index aufgenommen.
Der beste Ansatz für echte Optimierung besteht darin, aussagekräftigen, semantischen Code mit echten Inhalten auszuliefern, bei denen bspw. Links, die für die Suchmaschine keine Rolle spielen sollen, entsprechend mit rel="nofollow" markiert sind.
Solche Links gibt es in dem diskutierten Fall nicht.
Die Seiten unter
/Tags/foo
/Tags/bar
weisen (anfänglich), vom Titel abgesehen, den gleichen Inhalt auf. Beide Seiten haben aber für alle Beteiligten den gleichen Stellenwert, also sind auch die Links auf beide Seiten gleichrangig.
Wie sollte überhaupt implementiert werden, welche Links mit einem rel="nofollow" versehen werden? Die Systematik könnte sich nur aus dem Inhalt der verlinkten Seiten ergeben. Möglich wäre das zwar prinzipiell aber nur mehr oder weniger aufwendig und weniger oder mehr zielgerichtet und zweckmäßig wahrscheinlich gar nicht.
PS.: Wenn man meint da irgend etwas tun zu müssen, dann kann man an den Tags drehen.
Zeige Tags* nur an, wenn mindestens zwei Kategorien diesen Tag tragen. Oder, zeige Tags* (erstmals**) nur an, wenn sich die damit verknüpften Kategorien unterscheiden.
* Die Tags als Link auf der Seite der Kategorie und die Tags als eigene Seite.
**Zwei Tags könnten theoretisch in Zukunft immer wieder mit der gleichen Menge an Kategorien verknüpft sein, dann sollte man sie aber nicht mehr wieder ausblenden, denke ich. Außerdem könnte man dann mit einem Flag "anzeigen" arbeiten, was von der Performance her besser wäre, als jedes mal die Verknüpfungen zu prüfen.