oxo888oxo: Frage zum Duplicate Content Problem

Hallo

Ich betreibe einen Online-Shop. Früher hatte ich mal eine deutsche und eine englische Variante. Heute habe ich nur noch die deutsche Variante.

Die Produktseiten waren und sind statische URLs. Damals, als ich noch die englische Variante hatte, gab es also für jedes Produkt 2 Dateien. Deutsch: www.example.org/aktikel/al001.php Englisch: www.example.org/aktikel/al001-e.php

Die englische Datei gibt es nun nicht mehr. Daher leite ich die URL per .htaccess-Datei auf die deutsche Seite um (301).

Besteht da nun quasi ein Problem bezüglich Duplicate Content? Duplicate Content ist doch, wenn 2 gleiche Dateien unter verschiedenen URLs erreichbar sind. Bei mir gibt es aber nun ja nur eine Datei (eben die deutsche Variante).

Gruß Ingo

  1. Hallo

    Ich betreibe einen Online-Shop. Früher hatte ich mal eine deutsche und eine englische Variante.

    Die englische Datei gibt es nun nicht mehr. Daher leite ich die URL per .htaccess-Datei auf die deutsche Seite um (301).

    Besteht da nun quasi ein Problem bezüglich Duplicate Content?

    Du hast keinen doppelten Inhalt.

    Duplicate Content ist doch, wenn 2 gleiche Dateien unter verschiedenen URLs erreichbar sind.

    Ja. Der (vorwiegend) gleiche Inhalt unter verschiedenen URIs wird als Duplicate Content gewertet. Ausnahmen davon gibt es aber auch, wie z.B. die gleiche Ressource, die mit verschiedenen Protokollen erreichbar ist. Das ist aber kein auf dich zutreffender Fall, denn du hast keinen doppelten Inhalt.

    Den hattest du übrigens auch früher nicht, als du deine Produkte in verschiedenen Sprachen anbotst. Selbst wenn einzelne Dienste auch Übersetzungsprogramme betreiben, werden sie das mehrsprachige Angebot der selben Inhalte nicht abwerten. Ansonsten müsste man sich hüten, so etwas anzubieten.

    Bei mir gibt es aber nun ja nur eine Datei (eben die deutsche Variante).

    Eben. Also keine Panik.

    Tschö, Auge

    --
    Wir hören immer wieder, dass Regierungscomputer gehackt wurden. Ich denke, man sollte die Sicherheit seiner Daten nicht Regierungen anvertrauen.
    Jan Koum, Mitgründer von WhatsApp, im Heise.de-Interview
    1. Ja. Der (vorwiegend) gleiche Inhalt unter verschiedenen URIs wird als Duplicate Content gewertet. Ausnahmen davon gibt es aber auch, wie z.B. die gleiche Ressource, die mit verschiedenen Protokollen erreichbar ist.

      Du meinst http://example.org/ressource vs https://example.org/ressource? Warum sollte das kein Duplikate Content sein?

      1. Hallo,

        Ja. Der (vorwiegend) gleiche Inhalt unter verschiedenen URIs wird als Duplicate Content gewertet. Ausnahmen davon gibt es aber auch, wie z.B. die gleiche Ressource, die mit verschiedenen Protokollen erreichbar ist.

        Du meinst http://example.org/ressource vs https://example.org/ressource? Warum sollte das kein Duplikate Content sein?

        wenn ich dir zweimal den Weg zum gleichen Restaurant beschreibe, einmal per U-Bahn und einmal per Taxi, wunderst du dich dann auch, wieso die zwei Lokale sich so täuschend ähnlich sehen und auch noch dieselbe Speisekarte haben?

        So long,
         Martin

        1. wenn ich dir zweimal den Weg zum gleichen Restaurant beschreibe, einmal per U-Bahn und einmal per Taxi, wunderst du dich dann auch, wieso die zwei Lokale sich so täuschend ähnlich sehen und auch noch dieselbe Speisekarte haben?

          Der Vergleich ist nett, hinkt aber. Wenn man es entsprechend konfiguriert (absichtlich oder unabsichtlich), kann man unter

          http://example.org/ressource

          sehr wohl etwas völlig anderes ausliefern als unter

          https://example.org/ressource

          Damit ist es Duplicate Content, sofern man denselben (bzw. hinreichend ähnlichen) Inhalt ausliefert.

      2. Hallo

        Ja. Der (vorwiegend) gleiche Inhalt unter verschiedenen URIs wird als Duplicate Content gewertet. Ausnahmen davon gibt es aber auch, wie z.B. die gleiche Ressource, die mit verschiedenen Protokollen erreichbar ist.

        Du meinst http://example.org/ressource vs https://example.org/ressource? Warum sollte das kein Duplikate Content sein?

        Weil es ein-und-derselbe Inhalt ist und kein Duplikat. Und wenn du auf die „Bestrafung“ von Duplicate Content hinaus willst: Suchmaschinen wissen um die Legitimität der Erreichbarkeit des selben Inhalts über mehrere Protokolle und typische URI-Konstellationen wie z.B. example.com und www.example.com hinweg. Sie „bestrafen“ soetwas nicht.

        Tschö, Auge

        --
        Wir hören immer wieder, dass Regierungscomputer gehackt wurden. Ich denke, man sollte die Sicherheit seiner Daten nicht Regierungen anvertrauen.
        Jan Koum, Mitgründer von WhatsApp, im Heise.de-Interview
        1. Du meinst http://example.org/ressource vs https://example.org/ressource? Warum sollte das kein Duplikate Content sein?

          Weil es ein-und-derselbe Inhalt ist und kein Duplikat.

          WTF?

          Und wenn du auf die „Bestrafung“ von Duplicate Content hinaus willst: Suchmaschinen wissen um die Legitimität der Erreichbarkeit des selben Inhalts über mehrere Protokolle und typische URI-Konstellationen wie z.B. example.com und www.example.com hinweg. Sie „bestrafen“ soetwas nicht.

          Soso, na dann.

          1. Hallo

            Und wenn du auf die „Bestrafung“ von Duplicate Content hinaus willst: Suchmaschinen wissen um die Legitimität der Erreichbarkeit des selben Inhalts über mehrere Protokolle und typische URI-Konstellationen wie z.B. example.com und www.example.com hinweg. Sie „bestrafen“ soetwas nicht.

            Soso, na dann.

            Beweise!

            Du kommst hier immer wieder mit der Duplicate-Content-Keule um die Ecke und verängstigst Leute, die eh schon Angst vor einem schlechten Google-Ranking haben. Du hast bisher kein einziges Mal den Beweis angetreten, dass Google oder eine andere Suchmaschine Seiten herabstuft, die mit identischem Inhalt sowohl unter http://example.com und https://example.com oder unter example.com als auch unter www.example.com erreichbar sind.

            Wenn eine Suchmaschine solche Fälle bestraft, wird sie das ja wohl irgendwo dokumentiert haben. Zeig mir die Dokumentation einer solchen Regel bei einer relevanten Suchmaschine.

            Tschö, Auge

            --
            Wir hören immer wieder, dass Regierungscomputer gehackt wurden. Ich denke, man sollte die Sicherheit seiner Daten nicht Regierungen anvertrauen.
            Jan Koum, Mitgründer von WhatsApp, im Heise.de-Interview
            1. Hallo Auge,

              Beweise!

              http://example.com und https://example.com sind zwei verschiedene URLs und damit wäre es duplicate content. Den Gegenbeweis müsstest du antreten, denn du stellst ja die These auf.

              Ansonsten hat Google ja ein paar sehr eingängliche Beispiele veröffentlicht, unter anderem wird demnach auch http://example.com/index.html und http://example.com/ als unterschiedliche URL und damit als duplicate content gewertet. Und für deine Position kann ich keine Quellen finden (umgekehrt jedoch jede Menge).

              Wenn eine Suchmaschine solche Fälle bestraft, wird sie das ja wohl irgendwo dokumentiert haben. Zeig mir die Dokumentation einer solchen Regel bei einer relevanten Suchmaschine.

              Siehe oben.

              LG,
              CK

              1. Tach,

                http://example.com und https://example.com sind zwei verschiedene URLs und damit wäre es duplicate content. Den Gegenbeweis müsstest du antreten, denn du stellst ja die These auf.

                Ansonsten hat Google ja ein paar sehr eingängliche Beispiele veröffentlicht, unter anderem wird demnach auch http://example.com/index.html und http://example.com/ als unterschiedliche URL und damit als duplicate content gewertet. Und für deine Position kann ich keine Quellen finden (umgekehrt jedoch jede Menge).

                sie erklären allerdings leider nicht, welche Annahmen sie in „In den seltenen Fällen, in denen wir annehmen müssen, dass duplizierter Content mit der Absicht angezeigt wird, das Ranking zu manipulieren oder unsere Nutzer zu täuschen, nehmen wir die entsprechenden Korrekturen am Index und Ranking der betreffenden Websites vor.“ machen.

                Und würde ich darüber spekulieren, wie Googles Algorithmen aussehen, würde ich auch eher bei Auges Einschätzung ankommen, als anzunehmen, dass jeglicher Duplicate Content gefährlich ist.

                mfg
                Woodfighter

                1. Hallo woodfighter,

                  Und würde ich darüber spekulieren, wie Googles Algorithmen aussehen, würde ich auch eher bei Auges Einschätzung ankommen, als anzunehmen, dass jeglicher Duplicate Content gefährlich ist.

                  Niemand hat gesagt, dass Duplicate Content per se und in jedem Fall gefährlich ist. Nur die Behauptung identischer Inhalt unter verschiedenen URLs sei kein Duplicate Content ist halt einfach nicht wahr.

                  LG,
                  CK

                  1. Tach,

                    Und würde ich darüber spekulieren, wie Googles Algorithmen aussehen, würde ich auch eher bei Auges Einschätzung ankommen, als anzunehmen, dass jeglicher Duplicate Content gefährlich ist.

                    Niemand hat gesagt, dass Duplicate Content per se und in jedem Fall gefährlich ist. Nur die Behauptung identischer Inhalt unter verschiedenen URLs sei kein Duplicate Content ist halt einfach nicht wahr.

                    die Begriffsfrage hat Auge ja schon in https://forum.selfhtml.org/self/2016/feb/23/frage-zum-duplicate-content-problem/1661600#m1661600 zu klären versucht.

                    Ich würde davon ausgehen, dass Google URIs normalisiert bevor es diese wertet und es würde mich überraschen, wenn Google http://www.example.com/seite/, http://www.example.com/seite und http://www.example.com/seite/index.htm getrennt führen würde (vorallem, weil das etwas ist, was ich für eine gute Idee hielte und ich sicher kein guter Suchmaschineningenieur bin).

                    mfg
                    Woodfighter

                    P.S. Der englische Artikel von Google verwendet noch eine vorgesehene Beispieldomain, fällt mir gerade auf, Lost in Translation…

                    1. Hallo woodfighter,

                      die Begriffsfrage hat Auge ja schon in https://forum.selfhtml.org/self/2016/feb/23/frage-zum-duplicate-content-problem/1661600#m1661600 zu klären versucht.

                      Ist das so? Das habe ich anders verstanden. Falls er das aber versucht hat, dann hat er mEn versucht den Begriff umzudefinieren. Und das halte ich für unzulässig.

                      Ich würde davon ausgehen, dass Google URIs normalisiert bevor es diese wertet und es würde mich überraschen, wenn Google http://www.example.com/seite/, http://www.example.com/seite und http://www.example.com/seite/index.htm getrennt führen würde (vorallem, weil das etwas ist, was ich für eine gute Idee hielte und ich sicher kein guter Suchmaschineningenieur bin).

                      Ich auch, aber das ist ja ein anderer Aspekt.

                      LG,
                      CK

                      1. Tach,

                        die Begriffsfrage hat Auge ja schon in https://forum.selfhtml.org/self/2016/feb/23/frage-zum-duplicate-content-problem/1661600#m1661600 zu klären versucht.

                        Ist das so? Das habe ich anders verstanden. Falls er das aber versucht hat, dann hat er mEn versucht den Begriff umzudefinieren. Und das halte ich für unzulässig.

                        ob das eine Umdefinition ist, hängt halt davon ab, was man unter dem Begriff versteht; für mich hat auch Duplicate Content bereits eine negative Konnotation, also Duplicate Content als Abkürzung für abgestrafter Duplicate Content.

                        mfg
                        Woodfighter

                        1. Hallo

                          die Begriffsfrage hat Auge ja schon in https://forum.selfhtml.org/self/2016/feb/23/frage-zum-duplicate-content-problem/1661600#m1661600 zu klären versucht.

                          Ist das so? Das habe ich anders verstanden. Falls er das aber versucht hat, dann hat er mEn versucht den Begriff umzudefinieren. Und das halte ich für unzulässig.

                          ob das eine Umdefinition ist, hängt halt davon ab, was man unter dem Begriff versteht; für mich hat auch Duplicate Content bereits eine negative Konnotation, also Duplicate Content als Abkürzung für abgestrafter Duplicate Content.

                          Natürlich haben @Christian Kruse und Mitleser technisch gesehen recht. Wenn der selbe Inhalt unter verschiedenen URIs erreichbar ist, ist dsa Duplicate Content. Jedoch sagt mir auch mein Sprachgefühl, dass es bei diesem Begriff um in betrügerischer Absicht an mehreren Stellen verfügbar gemachten doppelten Inhalt geht. Google selbst sagt ja, dass es ihnen um die Filterung genau solcher Inhalte geht. Von daher beschränke ich die Benutzung des Begriffs von vornherein auf dieses Feld.

                          Alles andere ist zwar unter mehreren Adressen verfügbarer Inhalt (technisch also Duplicate Content), kann aber ignoriert werden [1], auch wenn Optimierungen möglich und sinnvoll sind [1:1].

                          Tschö, Auge

                          --
                          Wir hören immer wieder, dass Regierungscomputer gehackt wurden. Ich denke, man sollte die Sicherheit seiner Daten nicht Regierungen anvertrauen.
                          Jan Koum, Mitgründer von WhatsApp, im Heise.de-Interview

                          1. „Können“ heißt hier explizit nicht „sollen“. Die Möglichkeiten, Weiterleitungen zu nutzen, wo sie sinnvoll sind, konsistente Benutzung eines Domainnamensschemas (mit oder ohne Subdomain www, mit oder ohne Trailing Slash oder Standarddatei des Verzeichnisses; ich denke, gerade hier ist bei händisch erstellten Seiten eine Menge herauszuholen) und die Hauptseiten zu benennen (Canonical URL), soll man schon nutzen. ↩︎ ↩︎

              2. Hallo

                Beweise!

                http://example.com und https://example.com sind zwei verschiedene URLs und damit wäre es duplicate content. Den Gegenbeweis müsstest du antreten, denn du stellst ja die These auf.

                Moment, dass es technisch doppelter Inhalt ist, bestreite ich nicht. Was ich bestreite ist, dass Google oder wer auch immer, solche Fälle „bestraft“, also das Ranking herunterstuft.

                Ansonsten hat Google ja ein paar sehr eingängliche Beispiele veröffentlicht, unter anderem wird demnach auch http://example.com/index.html und http://example.com/ als unterschiedliche URL und damit als duplicate content gewertet. Und für deine Position kann ich keine Quellen finden (umgekehrt jedoch jede Menge).

                Gerade diese Seite lese ich ganz anders. Auf der Seite werden Strategien zur Vermeidung von bzw. dem Umgang mit doppeltem Inhalt gezeigt. Es wird aber an keiner Stelle gesagt, dass die hier in Frage stehenden Fälle von Duplicate Content zu einer Verschlechterung des Rankings führen.

                Ein Zitat von der Seite:

                „Gelegentlich wird Content jedoch bewusst auf verschiedenen Domains dupliziert mit der Absicht, das Ranking bei Suchmaschinen zu beeinflussen oder mehr Zugriffe auf sich zu ziehen. Derart unfaire Verhaltensweisen können zu einer negativen Nutzererfahrung führen, da den Besuchern im Grunde derselbe Content in einer Reihe von Suchergebnissen angezeigt wird.“

                Sieht Google example.com und www.example.com als verschiedene Domains an, weil sich eine Subdomain, zumal in einer gängigen Konstellation, unterscheidet? Da ich davon ausgehe, dass sich die Seite nicht nur an Techniker, sie sich genauestens mit der Terminologie auskennen, richtet, lese ich hier von „Domain“ im Sinne des allgemeinen Sprachgebrauchs, wo sie die Kombination aus Second Level Domain (SLD) und Top Level Domain (TLD) also den Domainnamen bezeichnet. Und ja, das ist natürlich nur eine Interpretation.

                Ein weiteres Zitat von der Seite:

                „In den seltenen Fällen, in denen wir annehmen müssen, dass duplizierter Content mit der Absicht angezeigt wird, das Ranking zu manipulieren oder unsere Nutzer zu täuschen, nehmen wir die entsprechenden Korrekturen am Index und Ranking der betreffenden Websites vor. Infolgedessen werden diese Websites unter Umständen in den Suchergebnissen niedriger eingestuft oder sogar aus dem Google-Index entfernt und damit nicht mehr in den Suchergebnissen angezeigt.“

                Es gibt die Androhung von Konsequenzen in „seltenen Fällen“, in denen ein Betrugsversuch vermutet wird.

                Als diese Regeln ursprünglich aufgestellt wurden, ging es um sich gegenseitig verlinkende Linkfarmen auf unterschiedlichen Domains (SLD.TLD), die mit den Verlinkungen das Ranking der verlinkten Seiten pushen wollten. Hier wurde das Thema ja auch schon -zig Mal diskutiert. Bis heute hat hier niemand irgendwohin verlinkt, wo steht, dass Fälle von „http://example.com“ und „https://example.com“ bzw, „example.com“ und „www.example.com“ dazu gehören.

                Und noch ein Zitat von der Seite:

                „Duplizierter Content auf einer Website ist kein Grund für Maßnahmen gegen diese Website, außer es scheint, dass mit diesem duplizierten Content Nutzer getäuscht bzw. Suchmaschinenergebnisse manipuliert werden sollen. Falls Ihre Website duplizierten Content enthält und Sie nicht den oben beschriebenen Tipps folgen, tun wir unser Bestes, eine Version des Contents in unseren Suchergebnissen anzuzeigen.“

                Es gibt laut dieser Seite legitime Doppelungen von Inhalt. Man sollte den Suchmaschinen mitteilen, welche die bevorzugte Version ist. Man soll konsistent verlinken, bei Strukturänderungen mit dem richtigen Status weiterleiten (wurde ja letztens auch hier diskutiert), Doppelungen, so es möglich ist, vermeiden, etc. pp. Dennoch treten Doppelungen auf und sie bleiben laut Google in vielen Fällen legitim.

                Wird so etwas von Google neuerdings bestraft?. Ich lese dort nichts von „Bestrafung“ in solchen Fällen.

                Wenn eine Suchmaschine solche Fälle bestraft, wird sie das ja wohl irgendwo dokumentiert haben. Zeig mir die Dokumentation einer solchen Regel bei einer relevanten Suchmaschine.

                Siehe oben.

                Sehe ich für die fraglichen Szenarien nicht.

                Tschö, Auge

                --
                Wir hören immer wieder, dass Regierungscomputer gehackt wurden. Ich denke, man sollte die Sicherheit seiner Daten nicht Regierungen anvertrauen.
                Jan Koum, Mitgründer von WhatsApp, im Heise.de-Interview
                1. Hallo Auge,

                  Beweise!

                  http://example.com und https://example.com sind zwei verschiedene URLs und damit wäre es duplicate content. Den Gegenbeweis müsstest du antreten, denn du stellst ja die These auf.

                  Moment, dass es technisch doppelter Inhalt ist, bestreite ich nicht. Was ich bestreite ist, dass Google oder wer auch immer, solche Fälle „bestraft“, also das Ranking herunterstuft.

                  Das hat so doch keiner behauptet. Ich hab extra nochmal nachgelesen…

                  LG,
                  CK

                  1. Hallo

                    http://example.com und https://example.com sind zwei verschiedene URLs und damit wäre es duplicate content. Den Gegenbeweis müsstest du antreten, denn du stellst ja die These auf.

                    Moment, dass es technisch doppelter Inhalt ist, bestreite ich nicht. Was ich bestreite ist, dass Google oder wer auch immer, solche Fälle „bestraft“, also das Ranking herunterstuft.

                    Das hat so doch keiner behauptet. Ich hab extra nochmal nachgelesen…

                    Mitleser in einem anderen Thread vor wenigen Tagen schon. Und darauf wollte er spätestens mit „Soso, na dann.“ auch hinaus.

                    Tschö, Auge

                    --
                    Wir hören immer wieder, dass Regierungscomputer gehackt wurden. Ich denke, man sollte die Sicherheit seiner Daten nicht Regierungen anvertrauen.
                    Jan Koum, Mitgründer von WhatsApp, im Heise.de-Interview
                    1. Moment, dass es technisch doppelter Inhalt ist, bestreite ich nicht. Was ich bestreite ist, dass Google oder wer auch immer, solche Fälle „bestraft“, also das Ranking herunterstuft.

                      Das hat so doch keiner behauptet. Ich hab extra nochmal nachgelesen…

                      Mitleser in einem anderen Thread vor wenigen Tagen schon.

                      Das Missverständnis besteht zwischen "Google bestraft als Strafe für bewussten Missbrauch" und "man bestraft sich selbst(macht sich das Leben schwer), indem man es nicht richtig macht". Das sollte nun aber spätestens in diesem Thread klar geworden sein.

                      Wobei ich ich das weiterhin durchaus auch als "Strafe" Googles bezeichnen möchte, werde den Terminus nun aber zwecks Vermeidung weiterer Missverständnisse möglichst nicht mehr verwenden.

                      Und darauf wollte er spätestens mit „Soso, na dann.“ auch hinaus.

                      Da hatte ich schlicht keinen Bock mehr :-)

                      1. Tach,

                        Das Missverständnis besteht zwischen "Google bestraft als Strafe für bewussten Missbrauch" und "man bestraft sich selbst(macht sich das Leben schwer), indem man es nicht richtig macht". Das sollte nun aber spätestens in diesem Thread klar geworden sein.

                        wie in https://forum.selfhtml.org/self/2016/feb/23/frage-zum-duplicate-content-problem/1661614#m1661614 gesagt, würde mich selbst das wundern, solange die URIs einfach genug zu normalisieren sind.

                        mfg
                        Woodfighter

                        1. wie in https://forum.selfhtml.org/self/2016/feb/23/frage-zum-duplicate-content-problem/1661614#m1661614 gesagt, würde mich selbst das wundern, solange die URIs einfach genug zu normalisieren sind.

                          Wo genau würdest Du denn die Grenze ziehen wollen? Bei den genannten vier Stück als "Maximum"?

                          http://example.org/ressource https://example.org/ressource http://www.example.org/ressource https://www.example.org/ressource

                          Denkbar, dass Google das als "bewusste Toleranz" so macht, ist aber m.E. pure Spekulation. Verlassen würde ich mich darauf nicht. Hast Du dafür Belege?

                          1. Tach,

                            wie in https://forum.selfhtml.org/self/2016/feb/23/frage-zum-duplicate-content-problem/1661614#m1661614 gesagt, würde mich selbst das wundern, solange die URIs einfach genug zu normalisieren sind.

                            Wo genau würdest Du denn die Grenze ziehen wollen? Bei den genannten vier Stück als "Maximum"?

                            bei etwas, das mir nicht sinnvoll oder algorithmisch zu kompliziert vorkommt.

                            http://example.org/ressource https://example.org/ressource http://www.example.org/ressource https://www.example.org/ressource

                            Ich würde davon ausgehen, dass diese vier von Google als ein Content behandelt werden, wenn der Inhalt gleich ist. Also egal auf welches der vier ein externer Link zeigt, es würde als ein Ziel gewertet.

                            Denkbar, dass Google das als "bewusste Toleranz" so macht, ist aber m.E. pure Spekulation. Verlassen würde ich mich darauf nicht. Hast Du dafür Belege?

                            Nein, Google dokumentiert es nicht, und ich kenne keine entsprechende Studie, die es untersucht hätte (auch keine meinem Bauchgefühl widersprechende); das Gegenteil zu behaupten ist allerdings mindestens genauso spekulativ. Da ich glaube, dass meine Spekulation eher im Interesse Googles liegt, halte ich sie für sinnvoller.

                            mfg
                            Woodfighter

                            1. Nein, Google dokumentiert es nicht, und ich kenne keine entsprechende Studie, die es untersucht hätte (auch keine meinem Bauchgefühl widersprechende); das Gegenteil zu behaupten ist allerdings mindestens genauso spekulativ.

                              Widerspruch. Du stellst eine (durchaus vorstellbare!) Spekulation einer Heuristik seitens Google in den Raum und stellst es meiner These gleich, man sollte sich nicht auf eine womöglich(!) existierende Heuristik verlassen? Kann ich nicht nachvollziehen.

                              Wenn man alle drei Referenzfälle stumpf per 301 auf einen Referenzfall leitet, stellt sich die Frage nicht mehr. Schlechtestenfalls steht man genauso gut oder schlecht da, wie mit der (spekulativen) Heuristik. Bestenfalls stellt man sich besser. Ob mit oder ohne "www" ist Geschmacksache, wobei ich aus Marketinggründen mit www wählen würde. Ob mit oder ohne "https" ist dann schon nicht mehr egal, Google belohnt "https".

                              Da ich glaube, dass meine Spekulation eher im Interesse Googles liegt, halte ich sie für sinnvoller.

                              Inwiefern? Wenn man es gleich "richtig" macht, braucht man nicht mehr spekulieren.

                              1. Tach,

                                Nein, Google dokumentiert es nicht, und ich kenne keine entsprechende Studie, die es untersucht hätte (auch keine meinem Bauchgefühl widersprechende); das Gegenteil zu behaupten ist allerdings mindestens genauso spekulativ.

                                Widerspruch. Du stellst eine (durchaus vorstellbare!) Spekulation einer Heuristik seitens Google in den Raum und stellst es meiner These gleich, man sollte sich nicht auf eine womöglich(!) existierende Heuristik verlassen? Kann ich nicht nachvollziehen.

                                Widerspruch, du spekulierst, dass Google nicht wirtschaftlich denkt, indem es eine simple Heuristik nicht implementiert hat.

                                Wie gesagt, wir wissen es nicht, aber ich halte die eine Variante für wahrscheinlicher als die andere; vielleicht ist es hier sinnvoller auf der Seite der Vorsicht (und damit deiner Seite) zu irren, aber eine der beiden Varianten als Fakt hinzustellen ist vermutlich ungeschickt.

                                Wenn man alle drei Referenzfälle stumpf per 301 auf einen Referenzfall leitet, stellt sich die Frage nicht mehr. Schlechtestenfalls steht man genauso gut oder schlecht da, wie mit der (spekulativen) Heuristik. Bestenfalls stellt man sich besser. Ob mit oder ohne "www" ist Geschmacksache, wobei ich aus Marketinggründen mit www wählen würde. Ob mit oder ohne "https" ist dann schon nicht mehr egal, Google belohnt "https".

                                Dagegen argumentiere ich ja nicht, es gibt auch noch weitere Gründe das zu tun.

                                mfg
                                Woodfighter

                                1. Widerspruch, du spekulierst, dass Google nicht wirtschaftlich denkt, indem es eine simple Heuristik nicht implementiert hat.

                                  Ich habe nicht (nur) spekuliert, sondern vielmehr einen Weg propagiert, mit dem man sich jegliche Spekulation erspart.

              3. Hi,

                http://example.com und https://example.com sind zwei verschiedene URLs und damit wäre es duplicate content.

                Ist das so?

                Ich als anerkannter Genaunehmer[1] behaupte, daß das noch lange kein duplicate content ist. Nur duplicate urls ;-)

                duplicate content wäre es, wenn tatsächlich der Content dupliziert wäre, also z.b. für jede der URLs auch physisch in einer eigenen Datei vorliegt, oder pro URL in einem eigenen Datenbankeintrag. Das ist aber von außen über http nicht feststellbar ...

                cu,
                Andreas a/k/a MudGuard


                1. so hat mich mein Neffe, damals ca. 5-jährig, schon bezeichnet: "Du bist ein Genaunehmer!" ↩︎

                1. http://example.com und https://example.com sind zwei verschiedene URLs und damit wäre es duplicate content.

                  Ist das so?

                  Ich als anerkannter Genaunehmer[^1] behaupte, daß das noch lange kein duplicate content ist. Nur duplicate urls ;-)

                  Nö. Als wahrer Genaunehmer wären Duplicate Urls: http://example.com <> http://example.com :-)

                  duplicate content wäre es, wenn tatsächlich der Content dupliziert wäre, also z.b. für jede der URLs auch physisch in einer eigenen Datei vorliegt, oder pro URL in einem eigenen Datenbankeintrag.

                  Aus der Sicht des Seitenbetreibers mag man das so sehen. Hier geht es aber um die Sichtweise der Suma, also von "außen". Da interessiert der innere Aufbau null.

                  Das ist aber von außen über http nicht feststellbar ...

                  Eben.

            2. Beweise!

              :-) Das ist bei SEO so eine Sache mit den Beweisen ;-)

              Du kommst hier immer wieder mit der Duplicate-Content-Keule um die Ecke und verängstigst Leute, die eh schon Angst vor einem schlechten Google-Ranking haben. Du hast bisher kein einziges Mal den Beweis angetreten, dass Google oder eine andere Suchmaschine Seiten herabstuft, die mit identischem Inhalt sowohl unter http://example.com und https://example.com oder unter example.com als auch unter www.example.com erreichbar sind.

              Eine Bestrafung im Sinne einer bewussten Herabstufung wird Google nur in Erwägung ziehen, wenn es von Vorsatz ausgeht:

              https://support.google.com/webmasters/answer/66359?hl=de

              Wenn eine Suchmaschine solche Fälle bestraft, wird sie das ja wohl irgendwo dokumentiert haben. Zeig mir die Dokumentation einer solchen Regel bei einer relevanten Suchmaschine.

              Siehe oben, sofern Vorsatz vermutet wird.

              Die Gleichung Duplikate Content = Bestrafung gilt nicht. Dennoch ist für das Ranking eine schlechte Idee, denselben Inhalt unter z.B. vier autarken Adressen (Dein Beispiel oben) direkt zugänglich zu machen( ohne z.B. via Weiterleitungen oder Canonicals zu agieren). Google muss dann raten, welches die richtige Adresse ist und Du profitierst dann von z.B. vier externen Links (die sich dummerweise auf alle vier Adressen verteilen) bei weitem nicht stark, wie wenn alle Links auf eine Adresse zeigen würden(wiederum sei es via 301 oder Canonical). Ob es dann wirklich nur ein viertel ist? Keine Ahnung, so genau wird Google das kaum öffentlich dokumentieren.