wahsaga: URi mit robots.txt sperren

Beitrag lesen

hi,

Mit der Datei robots.txt kann ich dem Suchrobot sagen, was er machen darf und was nicht. Kann man da auch direkte Addressen sperren (zb. tset.php?angabe=irgendwas?

nein, ich denke nicht, dass man bestimmte GET-parameterisierungen einzeln "sperren" kann.

Ich will nämlich so ne Art Druckversion machen, die bei einer Suchmaschine allerdings nicht gefunden werden soll. Da die Normalansicht und die Druckversion ein und dieselbe Datei sind und je nach Darstellungsart über PHP zusammengebastelt werden, kann ich die nicht in ein gesperrtes Verzeichnis legen.

http://www.google.de/intl/de/webmasters/3.html#B3 nennt ja noch eine andere möglichkeit; sollten sich andere suchbots wohl genauso dran halten.

gruß,
wahsaga

--
"Look, that's why there's rules, understand? So that you _think_ before you break 'em."