URi mit robots.txt sperren
ASCII
- sonstiges
0 wahsaga
Moinsen!
Mit der Datei robots.txt kann ich dem Suchrobot sagen, was er machen darf und was nicht. Kann man da auch direkte Addressen sperren (zb. tset.php?angabe=irgendwas?
Ich will nämlich so ne Art Druckversion machen, die bei einer Suchmaschine allerdings nicht gefunden werden soll. Da die Normalansicht und die Druckversion ein und dieselbe Datei sind und je nach Darstellungsart über PHP zusammengebastelt werden, kann ich die nicht in ein gesperrtes Verzeichnis legen.
hi,
Mit der Datei robots.txt kann ich dem Suchrobot sagen, was er machen darf und was nicht. Kann man da auch direkte Addressen sperren (zb. tset.php?angabe=irgendwas?
nein, ich denke nicht, dass man bestimmte GET-parameterisierungen einzeln "sperren" kann.
Ich will nämlich so ne Art Druckversion machen, die bei einer Suchmaschine allerdings nicht gefunden werden soll. Da die Normalansicht und die Druckversion ein und dieselbe Datei sind und je nach Darstellungsart über PHP zusammengebastelt werden, kann ich die nicht in ein gesperrtes Verzeichnis legen.
http://www.google.de/intl/de/webmasters/3.html#B3 nennt ja noch eine andere möglichkeit; sollten sich andere suchbots wohl genauso dran halten.
gruß,
wahsaga
Mit der Datei robots.txt kann ich dem Suchrobot sagen, was er machen darf und was nicht.
Es ist aber nicht gesagt, daß sich alle Bots auch wirklich daran halten. Die müssen die robots.txt keineswegs lesen. Die meisten Bots machen das zwar standardmäßig, aber 100% drauf verlassen kannst du nicht nicht.
Kann man da auch direkte Addressen sperren (zb. tset.php?angabe=irgendwas?
Es gibt auch Bots, die solchen Links gar nicht folgen. Dynamisch erzeugte Inhalte werden von manchen Bots wohl nicht gerne gemocht...
Wieso realisierst du das mit der Druckversion nicht einfach über ein anderes Stylesheet für den Druck (media="print") und blendest dort dann z.B. einige Elemente aus, die nicht gedruckt werden sollen?
Mit der Datei robots.txt kann ich dem Suchrobot sagen, was er machen darf und was nicht. Kann man da auch direkte Addressen sperren (zb. tset.php?angabe=irgendwas?
nein, ich denke nicht, dass man bestimmte GET-parameterisierungen einzeln "sperren" kann.
Es ist immer nur die Rede davon gewesen, dass ein robots.txt-Eintrag dem ersten Teil einer URL gleichen muss. Es spricht also nichts dagegen, den Eintrag "tset.php?angabe=irgendwas" als Regel zum Ausschluss der Seite tset.php?angabe=irgendwas&attribut=nochwas zu benutzen, während tset.php?angabe=auchwas oder tset.php zugelassen werden.
http://www.google.de/intl/de/webmasters/3.html#B3 nennt ja noch eine andere möglichkeit; sollten sich andere suchbots wohl genauso dran halten.
Hoffentlich findet er diese andere Möglichkeit. Aber ansonsten kann er ja auch noch http://de.selfhtml.org/html/kopfdaten/meta.htm#robots benutzen.