Elya: /SONSTIGES: Serverantwortzeiten vs. Suchmaschinen-Ranking

Guten Morgen,

heute einmal eine Frage aus dem beliebten Bereich "SEO": einer meiner Kunden betreibt einen Shop. Da die Plazierung in Google für ihn hohe Priorität hat, hat er einen externen SEO-Experten eingeschaltet, der die Seite analysiert hat. Neben einigen für mich nachvollziehbaren Punkten werden nun die unterdurchschnittlichen Verbindungs- und Serverantwortzeiten aus USA und Großbritannien bemängelt. Da Suchmaschinenspider überwiegend von dort kämen, sei das nachteilig.

Mal abgesehen von Verbesserungen der Performance der Anwendung als solche  (DB-Abfragen, Caching etc.) sehe ich a) nicht den Zusammenhang zu Suchmaschinen-Rankung und b) kaum eine Möglichkeit, die längeren Wege, die nun einmal längere Antwortzeiten bedingen (oder?) zu beeinflussen.

Hat damit jemand Erfahrungen und kann mir sagen, wieviel von dieser Einschätzung SEO-Voodoo und wieviel begründet ist? Gibt es seriöse Messungen/Quellen/Dokumentationen?

Gruß aus Köln-Ehrenfeld,

Elya

--
We are drowning in information but starved for knowledge. John Naisbitt
  1. Mal abgesehen von Verbesserungen der Performance der Anwendung als solche  (DB-Abfragen, Caching etc.) sehe ich a) nicht den Zusammenhang zu Suchmaschinen-Rankung und b) kaum eine Möglichkeit, die längeren Wege, die nun einmal längere Antwortzeiten bedingen (oder?) zu beeinflussen.

    Es ist erwiesenermassen so, dass Robots nicht schwimmen können. Deshalb kommen sie auch nicht über den Atlantik.
    Wenn du die GoogleIPs kontrollierst, wirst du das bestätigen können.

    mfg Beat

    --
    ><o(((°>           ><o(((°>
       <°)))o><                     ><o(((°>o
    Der Valigator leibt diese Fische
    1. Hallo Beat,

      Es ist erwiesenermassen so, dass Robots nicht schwimmen können. Deshalb kommen sie auch nicht über den Atlantik.

      einleuchtender Ansatz ;-)

      Wenn du die GoogleIPs kontrollierst, wirst du das bestätigen können.

      Hmm, läßt sich nicht so einfach nachweisen oder widerlegen - die google-IPs zeigen alle auf Kalifornien. Ein traceroute, der vom Frankfurter Gateway mit einem Hop auf einer Google-IP landet, spricht zwar nicht grade für USA, aber wie kann ich belastbar nachweisen, daß die Google-Robots (alle) auf dem europäischen Festland sitzen?

      Gruß aus Köln-Ehrenfeld,

      Elya

      --
      We are drowning in information but starved for knowledge. John Naisbitt
      1. Es ist erwiesenermassen so, dass Robots nicht schwimmen können. Deshalb kommen sie auch nicht über den Atlantik.
        einleuchtender Ansatz ;-)

        Wenn du die GoogleIPs kontrollierst, wirst du das bestätigen können.
        Hmm, läßt sich nicht so einfach nachweisen oder widerlegen - die google-IPs zeigen alle auf Kalifornien. Ein traceroute, der vom Frankfurter Gateway mit einem Hop auf einer Google-IP landet, spricht zwar nicht grade für USA, aber wie kann ich belastbar nachweisen, daß die Google-Robots (alle) auf dem europäischen Festland sitzen?

        Es ist eine Regionalisierung bemerkbar. Das heisst Robots mit bestimmten IP-Bereichen sind vornehmlich für bestimmte Regionen zuständig. Überlappungen gibt es.

        Nein, ich meine, dass die Latenzzeit bei Robots einfach keine Rolle spielt, solange sie nicht die Grössenordnung des Timeouts erreicht.

        Was hingegen eine Rolle spielen kann, ist die gefühlte Latenzzeit seitens des Users. Eine Seite, die strikt nach dem EVA Prinzip verarbeitet wird, wird tendenziell später dargestellt als eine Site, die auf möglichst schnellen Content-Response angelegt ist.

        Persönlich würde ich eventuell die Server-Belastung als erstes ins Auge fassen. Gibt es Seiten, die gecacht werden können? Bei Datenbankabfragen und stark Sessionorientierten Seiten ist das kaum der Fall. Aber das tangiert gleichzeitig die Frage: Was wird einem Robot in einem solchen Fall geliefert?
        Irgendwann wird auch Google beginnen, Formulare auszufüllen, um das Deep-Web zu indexieren. Die Papers sind auf jeden Fall schon geschrieben.

        mfg Beat

        --
        ><o(((°>           ><o(((°>
           <°)))o><                     ><o(((°>o
        Der Valigator leibt diese Fische
  2. Hallo,

    Frage am besten mal in einem SEO-Forum, bspw.
    http://www.abakus-internet-marketing.de/foren/viewtopic.php?t=70013
    (Gleich mal ein Thread zum Thema.)

    unterdurchschnittlichen Verbindungs- und Serverantwortzeiten aus USA und Großbritannien bemängelt. Da Suchmaschinenspider überwiegend von dort kämen, sei das nachteilig.

    Eine Suchmaschine, deren Crawler in den USA stehen, würde sich selbst ins Knie schießen, wenn sie gut angebundene Server in Europa prinzipiell schlechter ranken würde, nur weil sie in Europa stehen. Natürlich sollte man auch der Crawler zuliebe für gute Verbindungs- und Antwortzeiten sorgen - aber ein vergleichsweise gut angebundener Server in Europa, der schnell mit gutem Content antwortet, wird sicher nicht pauschal abgestraft.

    Mal abgesehen von Verbesserungen der Performance der Anwendung als solche  (DB-Abfragen, Caching etc.) sehe ich a) nicht den Zusammenhang zu Suchmaschinen-Rankung und b) kaum eine Möglichkeit, die längeren Wege, die nun einmal längere Antwortzeiten bedingen (oder?) zu beeinflussen.

    Soweit ich das verstehe, geht bei solchen Optimierungen vor allem um lokales Ranking. Sprich, da behaupten einige, dass der Serverstandort und andere Faktoren, die auf eine »lokale« Bedeutung hinweisen, wichtig sind. Ein zusätzlicher Server in den USA wäre aus dieser Sicht sinnvoll, wenn die Site vermehrt auf amerikanische Nutzer abzielen will. Wenn die Site aber auf den deutschsprachigen Markt in Europa abzielt, so zieht diese Argumentation nicht.

    Mathias