jeannie61: robot.txt

Beitrag lesen

Also wenn ich jetzt in mein Robot.txt sowas schreibe:

User-agent: *
Disallow:/uebungpass/

reicht das, das ich versuche diese unterordner nicht crawlen zu lassen? oder muss es:

User-agent: *
Disallow:/uebungpass.html/

Ich habe alles gelesen aber ich komme nicht weiter.

Vielen Dank
Jeannie

0 77

robot.txt

  1. 0
    1. 0
    2. 0
      1. 0
      2. 0
    3. 0

      robot.txt +<META NAME="ROBOTS" CONTENT="NOINDEX">

  2. 0
    1. 0
  3. 0
    1. 0
    2. 0
      1. 0
        1. 0
          1. 0
            1. 0
              1. 0
              2. 0
                1. 0
                  1. 0
                    1. 0
                      1. 0
                        1. 0
                          1. 0
              3. 0
                1. 0
                  1. 0
                2. 0
          2. 0
            1. 0
              1. 0
                1. 0
                  1. 0
                    1. 0
            2. 0
              1. 0
                1. 0
                  1. 0
                    1. 0
                      1. 0
                        1. 0
                      2. 0
                        1. 0
                          1. 0
                            1. 0
                              1. 0
                                1. 0
                                  1. 0
                                    1. 0
                                      1. 0
                                        1. 0
                                          1. 0
                                            1. 0
                                            2. 0
                                              1. 0
                                              2. 0
                                                1. 0
                                                2. 0
  4. 0
    1. 0
      1. 0
        1. 0
          1. 0
            1. 0
              1. 0
                1. 0
                  1. 0
                  2. 0
                    1. 0
                2. 0
                  1. 0
                    1. 0
                      1. 0
                        1. 0
                          1. 0
                            1. 0
                              1. 0