ich würde da ein noch im ersten Teilsatz unterbringen; ich gehe davon aus, dass Goolge mit der Hilfe von Chrome versuchen wird, größere Teile der weißen Flecken auf der Internetkarte aufzudecken.
Da hast du schon Recht. In Bezug auf Chrome habe ich hier meine Arbeitsweise schon überdacht.
Dabei ist das Hauptproblem, dass beim Onlinestellen mit der "echten" Domain dann praktisch doppelter COntent entstehend würde, weil Google evtl. Seiten spidert, auf denen es nichts veroren hat.
Wie ich das genau löse, weiss ich noch nicht. Passwortabfragen will ich weitestgehend vermeiden weil es zusätzlicher Aufwand für den Kunden ist.
Muss ich mich mal schalu machen, wie zuverlässig in diesem Fall die robots.txt ist, evtl in Kombination mit der Abfrage des Clientnamen (Googlebot sagt ja, wenn er vorbeikommt ;))
Spannend wird aber, ob auch andere SUMas an die Daten von Chrome rankommen. Denn wer kann schon wissen, ob sich andere SuMas an die robots.txt halten und sich anständig als Bot anmelden ;)