Moin,
ich möchte via robots.txt den zugang wie folgt beschränken:
User-agent: *
Disallow: /verz1/
Disallow: /verz2/
Disallow: /verz3/
...
Ziel soll es sein, daß die Startseite erlaubt ist, der Rest aber verboten.
Das Problem ist, daß die Verzeichnisse /verz1/, /verz2/, ... noch weitere ebenen haben, die alle gesperrt sein sollen.
Reicht dafür der o.g. eintrag?
oder muß ich für z.b. /verz1/sub1/ eine eigene Regel erstellen?
Danke im voraus
Jens