nfs: robots.txt

hallo

das reicht für alle Verzeichnisse und Dateien zu indexieren oder?
sollte man noch was schreiben? oder ergänzen

User-agent: *
Disallow:

  1. Moin!

    das reicht für alle Verzeichnisse und Dateien zu indexieren oder?
    sollte man noch was schreiben? oder ergänzen

    User-agent: *
    Disallow:

    "Schließe alle Seiten von der Indexierung aus." So würde ich das verstehen. Ist die Frage, ob du das auch sagen willst.

    - Sven Rautenberg

    --
    "Love your nation - respect the others."
    1. Hallo,

      User-agent: *
      Disallow:

      erlaubt das Indexieren aller Dateien und Verzeichnisse. Allerdings ist eine solche Angabe wenig Sinnvoll wenn man es vorher nicht eingeschränkt hat. Die robots.txt dient dazu Dinge zu "verbieten" und alles was nicht durch sie eingeschränkt ist, ist erlaubt.

      Gruß

      Markus

      1. Moin!

        User-agent: *
        Disallow:

        erlaubt das Indexieren aller Dateien und Verzeichnisse.

        Wenn ich so einen Effekt wollte, würde ich die Datei einfach komplett leer anlegen.

        Allerdings ist eine solche Angabe wenig Sinnvoll wenn man es vorher nicht eingeschränkt hat. Die robots.txt dient dazu Dinge zu "verbieten" und alles was nicht durch sie eingeschränkt ist, ist erlaubt.

        Da "alles erlaubt" sowieso Standardverhalten ist, bringt es nichts, Verbote auf diese Weise aufzuheben.

        - Sven Rautenberg

        --
        "Love your nation - respect the others."
      2. Fragt sich nur was es bspw. für einen Sinn macht Verzeichnisse zu indexieren die Images, Datenbank(en), scripts oder ggf. administations Pages enthalten?

        Möglicherweise macht eine solche Datei Sinn wie die folgende:

        User-agent: *

        Disallow: /db/
        Disallow: /images/
        Disallow: /scripts/
        Disallow: /stylesheets/
        Disallow: /search/

        - - - - - Dateien - - - - -

        Disallow: *_ado.asp
        Disallow: *.txt