wahsaga: Links auf Dateien fremder Server

Beitrag lesen

hi,

man kann googlebots aussperren(zumindest veröffentlicht google das dann nicht), aber wenn man jeden bot aussperren wollte, wäre das unmöglich.

Warum?
* als Angabe für den User-agent ist laut Spezifikation (sofern man hier von einer solchen reden kann) erlaubt.

Insofern ist die aktuelle robots.txt(was darf nicht)-Pflicht des Webmasters genau der falsche Weg. Es kann nur einen logisch vernünftigen Weg geben: robots.txt (du darfst hier rein, alle anderen raus!).

Um ständig Einträge für neue Spider nachtragen zu müssen, die in Zukunft relvant werden und erwünscht sein könnten?

gruß,
wahsaga

--
/voodoo.css:
#GeorgeWBush { position:absolute; bottom:-6ft; }