T-Rex: SEO - doppelter Inhalt

Moin,

ALLLLLLDDDDDDDAAAAAA....
ich komm gerade aus einem Meeting und muss mir erstmal Luft machen mit einer Frage am Ende.

Wir haben da so eine Seite die bei google nicht gut gerangt wird. Warum, weil die Konkurenz in der Branche echt hart ist. Jetzt setzten sich die Herrschaften des Marketings in den Kopf, dass alles besser wird wenn wir die Seite mit Ajax zerpflücken.
Vor allem unsere News geht es an den Kragen. Wir haben News-Snippets. Das ist ein kleiner Block mit 3 News drin. Dieser Block wird auf diversen Seiten eingebaut. Die Seiten bestehen aus Unique Content, bis eben auf die News. Die können unter Umständen auf mehreren Seiten gleich sein.

Frage 1: Erkennt Google die komplette Seite als Duplikatet Content an, nur weil minimale Teile der Seite gleich einer anderen ist? So zumindest die Behauptung der Herrschaften.

Das zweite ist, dass es Seiten gibt die für uns wichtiger sind und seiten die nicht so wichtig sind. Das Marketing meint, dass google ein Ranking nach Content Menge aufstellt.

Frage 2: Werden Seiten besser gerankt nur weil mehr Content drauf ist?

Da gibt es auch noch eine Liste mit Suchergebnissen. Meiner Meinung nach könnte man die gleiche (nicht identische Liste) nochmal in den Google Index bekommen, wenn die Reinfolge der Suchergebnisse sich ändert. Laut Meinung der Marketing Experten erkennt Google jedoch auch eine andere Sortierung der Ergebnisse.

Frage 3: Erkennt Google eine andere Sortierung von Suchergebnisse als doppelten Content?
Meiner Meinung nach ist das noch der Punkt der am ehesten zutrifft.

Ich hoffe die Fragen gehen jetzt nicht zu tief in den SEO Bereich. Meine Erfahrung ist, dass je mehr man sich von der Frage erwartet (also besseren ranking) desto größer die Geheimnisse und desto geringer die Antworten.

Gruß
Seo Halbwissen Verwalter
T-Rex

  1. Tach!

    Seo Halbwissen Verwalter

    Ich hab mir noch nichtmal Halbwissen über SEO angeschafft, weil ich SEO für die falsche Vorgehensweise halte, vor allem aus Anwendersicht.

    Google beschäftigt eine ganze Reihe sehr kluger Köpfe. Um Google langfristig austricksen zu können, muss man deutlich früher aufstehen als das Google-Personal. Letztlich betreibt Google das Ranking nicht um seiner selbst Willen, sondern weil es einem Zielpublikum das bestmögliche Ergebnis bieten will. Das bestmögliche Ergebnis definiert sich nicht in erster Linie dadurch, was Google gefällt, sondern was am Ende Googles Kunden gefällt, und das sind vor allem deine potentiellen Kunden/Besucher. Wenn Google jede Menge SEO-optimierten Schrott an den vorderen Positionen listen würde, dann wäre es nicht mehr attraktiv. Der nächste Punkt ist, dass man nicht nur gut gefunden werden muss, man muss auch dem Publikum etwas bieten, sonst besuchen sie nicht viel mehr als die Einstiegsseite. Bietest du dem Publikum die gewünschten oder einfach nur interessante Inhalte, steigt damit auch der Wert für Google. Googles Crawler (und die der anderen Suchmaschinen) kommt von selbst immer wieder. Als Firma musst du dein Publikum so begeistern, dass sie von selbst wiederkommen und nicht nur durch die Suchmaschinen hergebrachtes Laufpublikum abfertigen. Google hat noch einen weiteren Nachteil: Es macht keine Mund-zu-Mund-Propaganda. Dafür musst du ebenfalls Menschen statt Crawler vom Wert deiner Inhalte überzeugen.

    dedlfix.

    1. Ich möchte deinen Post nehmen um allen zu antworten.

      Erstmal danke für eure Gedanken!
      Das Problem dieser Seite ist, dass sie dem User absolut keinen mehr Wert bringt. Es ist eine Seite über Finanzprodukte mit dem Ziel, dass der User auf einen "jetzt kaufen" Button klickt, dann bei der Bank landet irgendwas abschließt und wir Provision kassieren. Würde diese Seite Pleite gehen würde niemand weinen.

      Mit Ajax zerpflücken heißt, dass eine aktuell laufende Seite (deren Content/html ganz normal vom Webserver generiert wird) Content via Ajax nachladen soll, damit dieser Content von Google nicht gesehen wird. Mal davon abgesehen dass ich glaube, dass Google JS fähig ist, ist das natürlich ein Betrug hoch 10.

      Tja wieso News an verschiedenen stellen? Wie gesagt die Seite hat keinen Mehrwert und man versucht mit geringen Mitteln viel Content zu erzeugen, wobei jetzt die Panik des doppelten Contents anscheinend ausgebrochen ist.

      Bin auf jeden Fall beruhigt, dass es anscheinend mehr vernünftige Menschen gibt als mich.

      Gruß
      nochmals Danke
      T-Rex

      1. Mit Ajax zerpflücken heißt, dass eine aktuell laufende Seite (deren Content/html ganz normal vom Webserver generiert wird) Content via Ajax nachladen soll, damit dieser Content von Google nicht gesehen wird. Mal davon abgesehen dass ich glaube, dass Google JS fähig ist, ist das natürlich ein Betrug hoch 10.

        Also der "normale" Crawler kann kein JS (soweit ich weiß) und Daten mittels Ajax nachladen kann gewisse Performance-Vorteile haben (ist also sicher kein Betrug). Allerdings wird euch das trotzdem nichts helfen ... wenn die Seite schlecht ist ... und das hört sich jetzt ganz nach 0815 Affiliate-Copy-Paste Quatsch an.

        1. Moin!

          Mit Ajax zerpflücken heißt, dass eine aktuell laufende Seite (deren Content/html ganz normal vom Webserver generiert wird) Content via Ajax nachladen soll, damit dieser Content von Google nicht gesehen wird. Mal davon abgesehen dass ich glaube, dass Google JS fähig ist, ist das natürlich ein Betrug hoch 10.

          Also der "normale" Crawler kann kein JS (soweit ich weiß)

          Da würde ich widersprechen. Ich sehe jedenfalls in den Logfiles, die ich habe, Requests vom Googlebot auf eine REST-API, die via Ajax angesprochen wird.

          Google oder irgendeine Magie schafft es, nicht nur die per Javascript erzeugten API-URLs zu erkennen und abzufragen, sondern findet sogar die absichtlich hinzugefügten HTTP-Header, die im jQuery-Request auftauchen.

          Weil Google oder wer auch immer dummerweise einen kleinen, aber verständlichen Fehler in den Request einbaut, wird von der API kein gültiger Inhalt zurückgegeben, weshalb ich die Wirkung auf das Ranking nicht beurteilen kann.

          Aber was ich beurteilen kann: Google kennt Ajax, und Javascript, und die einschlägigen Bibliotheken, und kann das alles parsen und ermitteln, ob Ajax gemacht wird. Vielleicht nicht unbedingt, wenn Benutzerinteraktion erforderlich ist (aber mal überlegen: Wer stellt den Browser Chrome her?), aber definitiv für alles, was automatisiert beim Seitenladen abläuft, bevor der User was tun kann.

          Insofern dürfte Google auch in der Lage sein, nachträgliche Javascript-Manipulationen am DOM nachzuvollziehen und in die Bewertung einfließen zu lassen.

          Mit anderen Worten: Die SEO-Strategien, die im OP diskutiert wurden, werden mutmaßlich nichts helfen.

          - Sven Rautenberg

          1. Tach!

            Insofern dürfte Google auch in der Lage sein, nachträgliche Javascript-Manipulationen am DOM nachzuvollziehen und in die Bewertung einfließen zu lassen.
            Mit anderen Worten: Die SEO-Strategien, die im OP diskutiert wurden, werden mutmaßlich nichts helfen.

            Und wenn jetzt noch nicht, dann ist das garantiert nur eine Frage der Zeit (wie bei PDF in der Vergangenheit). Für Inhalte, die Google nicht indexieren kann, die aber die Browser in irgendeiner Weise für Menschen wahrnehmbar machen können (z.B. Video, Audio und eben auch Ajax-Inhalte), und die für die Massen relevant sind (also nicht nur eine Nischenanwendung), gehen Google Werbeeinnahmen verloren. Google muss also schon aus dem Grund daran interessiert sein, sämtliche Inhalte indexieren zu können, weil das noch mehr Such-Kunden und mit ihnen Werbeeinnahmen bringt.

            dedlfix.

    2. Tach!

      Hai.

      Seo Halbwissen Verwalter

      Ich hab mir noch nichtmal Halbwissen über SEO angeschafft, weil ich SEO für die falsche Vorgehensweise halte, vor allem aus Anwendersicht.

      Mein halbwissen was ich über SEO habe basiert letztendlich nur auf erfahrungen und ein bisschen gesunden menschenverstand.

      Ich würde allerdings nicht sagen das SEO aus anwendersicht etwas schlimmes ist. Im gegenteil! Ich bin die letzten jahre sehr gut damit gefahren einfach "gute" webseiten zu machen. HTML elemente entsprechend ihrer idee zu benutzen, strukturierte überschriften. Letztendlich ist eine gute webseite für google auch eine gute webseite für menschen. Oder?

      Ich fand es lustig das mir ein sogenannter SEO-fachmann erklärt hat das ich doch bitte meta-keywords auf die seite einbauen solle, damit google die richtig kategorisieren kann. Ich hab nur in mich rein genuschelt das ich das bei gelegenheit mal tun werde und gegrinst.

      Frage 3: Erkennt Google eine andere Sortierung von Suchergebnisse als doppelten Content?

      Ich denke die frage kann man nicht so einfach beantworten, am ehesten wohl mit einem jain. Ich glaube allerdings auch nicht das doppelter content so schlimm ist und das ranking senkt.

      Mfg entropie

      --
      Whenever people agree with me I always feel I must be wrong.
        -- Oscar Wilde
  2. Hallo,

    Jetzt setzten sich die Herrschaften des Marketings in den Kopf, dass alles besser wird wenn wir die Seite mit Ajax zerpflücken.

    soll heißen ...?

    Frage 1: Erkennt Google die komplette Seite als Duplikatet Content an, nur weil minimale Teile der Seite gleich einer anderen ist? So zumindest die Behauptung der Herrschaften.

    Dann sollten sich diese Herrschaften vielleicht mal fragen, ob sämtliche Seiten eines beliebigen Webauftritts als Duplicate Content gelten, nur weil sie alle den gleichen Header oder Footer haben. Wir können natürlich nicht wissen, wie Google Seiteninhalte analysiert und bewertet, aber ich glaube, mit solchen gezielten Gegenfragen kann man schon so manche These entkräften.

    Frage 2: Werden Seiten besser gerankt nur weil mehr Content drauf ist?

    Das würde bedeuten, man muss nur viel, viel Müll schreiben, vielleicht noch ein paar seiner alten Schulaufsätze mit reinkopieren und alles wird gut. Klingt das glaubwürdig?

    Frage 3: Erkennt Google eine andere Sortierung von Suchergebnisse als doppelten Content?
    Meiner Meinung nach ist das noch der Punkt der am ehesten zutrifft.

    Könnte sein, aber das würde auch wieder bedeuten, dass die Google-Analyse die gesamte Seite in einzelne Bausteine zerlegt, diese einzeln bewertet und die Teilergebnisse dann wieder zusammenführt. Glaub ich nicht.

    Ich hoffe die Fragen gehen jetzt nicht zu tief in den SEO Bereich. Meine Erfahrung ist, dass je mehr man sich von der Frage erwartet (also besseren ranking) desto größer die Geheimnisse und desto geringer die Antworten.

    Es kommt noch dazu, dass SEO viel mit Hexerei und Alchimie zu tun hat, weil viele Einzelheiten einfach unbekannt oder sogar geheim sind, und ersatzweise viel Halbwissen und Vermutungen als Tatsache verkauft wird. Und deswegen möchte ich auch das eben Gesagte nicht als Behauptungen verstanden wissen, sondern nur als Vermutungen.

    So long,
     Martin

    --
    Männer sind ungerecht: Sie sehen immer nur den Baum, den eine Frau mit dem Auto gerammt hat. Aber die vielen Bäume, die sie nicht einmal gestreift hat, sehen sie nicht.
    Selfcode: fo:) ch:{ rl:| br:< n4:( ie:| mo:| va:) de:] zu:) fl:{ ss:) ls:µ js:(
  3. Hallo

    Grundsätzlich besteht SEO aus 2 Disziplinen: Onpage-Optimierung und Offpage-Optimierung.

    Das eine ohne das andere bringt nichts.

    Frage 1: Erkennt Google die komplette Seite als Duplikatet Content an, nur weil minimale Teile der Seite gleich einer anderen ist? So zumindest die Behauptung der Herrschaften.

    Jein. Es kommt auf die Menge des Textes an. Google hat aber zu diesem Thema auch eine sehr ausführliche Seite veröffentlicht.

    Frage 2: Werden Seiten besser gerankt nur weil mehr Content drauf ist?

    Die Content Menge ist irrelevant. Google bewertet die Qualität des Contents. Das klappt zwar nicht immer, aber der Crawler (bzw. der Algorhythmus dahinter) hat schon einiges auf dem Kasten.

    Es ist möglich einer XML Sitemap eine Gewichtung für die einzelnen Seiten mitzugeben. Das ist allerdings nur ein Vorschlag an die Suchmaschine und ob sie sich dran hält ist nicht sicher.

    Frage 3: Erkennt Google eine andere Sortierung von Suchergebnisse als doppelten Content?

    Jein ... wie Google selber schreibt (s.o.) sollten wiederkehrende oder ähnliche Textbausteine vermieden werden.

    Gruß
    Ole

  4. ...Dieser Block wird auf diversen Seiten eingebaut. Die Seiten bestehen aus Unique Content, bis eben auf die News. Die können unter Umständen auf mehreren Seiten gleich sein.

    Mit "Seiten" meinst du hier "Unterseiten" innerhalb einer Domain, gehe ich mal von aus.

    Frage 1: Erkennt Google die komplette Seite als Duplikatet Content an, nur weil minimale Teile der Seite gleich einer anderen ist? So zumindest die Behauptung der Herrschaften.

    Nein, sicher nicht wenn "minimale" Teile gleich sind, das ist ja fast unvermeidbar. Und schwarz-weiß Malerei hilft eh' nicht weiter.
    Für mich stellt sich eher die Frage, warum Newsschnipsel auf drei unterschiedlichen (Unter-?) Seiten auftauchen *müssen*. Als Seitenbetreiber ist man da gut beraten, sich hinzusetzen und sich ernsthaft zu fragen wie *ich als nutzer* den Inhalt der drei Seiten am bequemsten, übersichtlichsten, informativsten und am unaufdringlichsten strukturiert erwarten würde.

    Das zweite ist, dass es Seiten gibt die für uns wichtiger sind und seiten die nicht so wichtig sind. Das Marketing meint, dass google ein Ranking nach Content Menge aufstellt.

    Du kannst sicher sein, dass eine dünne Suppe zu einem Thema nicht so gehaltvoll angesehen wird wie eine das Theme durchdringende Darstellung. Und andererseits ist man gut beraten, wenn man Google zutraut Infomüll von umfassender Info zu unterscheiden. Und egal wie gut oder schlecht Google dies schaft, was wäre verkehrt daran von der Vermutung auszugehen, Google schaffte das leidlich gut? Die Besucher schaffen das anschließend sowieso.

    Frage 2: Werden Seiten besser gerankt nur weil mehr Content drauf ist?

    Siehe oben.

    Da gibt es auch noch eine Liste mit Suchergebnissen. Meiner Meinung nach könnte man die gleiche (nicht identische Liste) nochmal in den Google Index bekommen, wenn die Reinfolge der Suchergebnisse sich ändert. Laut Meinung der Marketing Experten erkennt Google jedoch auch eine andere Sortierung der Ergebnisse.

    Gibt es für den Besucher durch die veränderte Reihenfolge irgendeinen wirklich signifikanten Nutzen? Wenn nicht, warum sich dann der Gefahr aussetzen, dass Google keinen Nutzen erkennt ... und der Besucher dies ebenso sieht?

    Frage 3: Erkennt Google eine andere Sortierung von Suchergebnisse als doppelten Content?

    siehe oben.

    Als Webseitenoptimierer ist man sehr gut beraten *nicht* in schwarz - weiß zu denken, sondern in grautönen mit möglichst vielen Abstufungen, betrachtet aus Benutzersicht. Und es bedarf eines großen Abstandes zum eigenen Webauftritt um sich beim verteilen der Grautöne nicht in die eigenen Tasche zu lügen. Das klappt am besten, wenn man sich klar macht, dass Google das Netz aus Nutzersicht betrachtet und nicht aus Anbietersicht.

  5. Frage 1: Erkennt Google die komplette Seite als Duplikatet Content an, nur weil minimale Teile der Seite gleich einer anderen ist? So zumindest die Behauptung der Herrschaften.

    No. Da muß schon ein gewisser Prozentsatz übereinstimmen das es Duplicate wird.

    Frage 2: Werden Seiten besser gerankt nur weil mehr Content drauf ist?

    Gut zu wissen ... machen wir einfach alle ganz lange Seiten ... wer die längste hat, steht dann oben ... Bullshit natürlich.

    Frage 3: Erkennt Google eine andere Sortierung von Suchergebnisse als doppelten Content?

    Ich wär da vorsichtig ... ich kenne ein Beispiel wo das funktioniert hat und ich kenne die Aussage eines Google Quality Menschen der nicht begeistert war darüber. Google hat gute Algorithmen für sowas ... und ein großes Team von echten Menschen die das verifizieren.