Also wenn ich jetzt in mein Robot.txt sowas schreibe:
User-agent: *
Disallow:/uebungpass/
reicht das, das ich versuche diese unterordner nicht crawlen zu lassen? oder muss es:
User-agent: *
Disallow:/uebungpass.html/
Ich habe alles gelesen aber ich komme nicht weiter.
Vielen Dank
Jeannie