Beat: /SONSTIGES: Serverantwortzeiten vs. Suchmaschinen-Ranking

Beitrag lesen

Es ist erwiesenermassen so, dass Robots nicht schwimmen können. Deshalb kommen sie auch nicht über den Atlantik.
einleuchtender Ansatz ;-)

Wenn du die GoogleIPs kontrollierst, wirst du das bestätigen können.
Hmm, läßt sich nicht so einfach nachweisen oder widerlegen - die google-IPs zeigen alle auf Kalifornien. Ein traceroute, der vom Frankfurter Gateway mit einem Hop auf einer Google-IP landet, spricht zwar nicht grade für USA, aber wie kann ich belastbar nachweisen, daß die Google-Robots (alle) auf dem europäischen Festland sitzen?

Es ist eine Regionalisierung bemerkbar. Das heisst Robots mit bestimmten IP-Bereichen sind vornehmlich für bestimmte Regionen zuständig. Überlappungen gibt es.

Nein, ich meine, dass die Latenzzeit bei Robots einfach keine Rolle spielt, solange sie nicht die Grössenordnung des Timeouts erreicht.

Was hingegen eine Rolle spielen kann, ist die gefühlte Latenzzeit seitens des Users. Eine Seite, die strikt nach dem EVA Prinzip verarbeitet wird, wird tendenziell später dargestellt als eine Site, die auf möglichst schnellen Content-Response angelegt ist.

Persönlich würde ich eventuell die Server-Belastung als erstes ins Auge fassen. Gibt es Seiten, die gecacht werden können? Bei Datenbankabfragen und stark Sessionorientierten Seiten ist das kaum der Fall. Aber das tangiert gleichzeitig die Frage: Was wird einem Robot in einem solchen Fall geliefert?
Irgendwann wird auch Google beginnen, Formulare auszufüllen, um das Deep-Web zu indexieren. Die Papers sind auf jeden Fall schon geschrieben.

mfg Beat

--
><o(((°>           ><o(((°>
   <°)))o><                     ><o(((°>o
Der Valigator leibt diese Fische