Rainer: robots.txt und einzelne Datei vor SM schüzzen

Hallo,
in der robots.txt kann ich ja mit:

Disallow: /files/

das verzeichnis files vor dem indexieren ausschliessen.
Ich habe im doc.root die datei test.txt
Kann ich nun mit

Disallow: /test.txt

speziell diese eine Datein auch vor dem indexieren durch Suchmaschienen schützen? HAlten sich eigentlich auch alle Robots an die Vorgaben der robots.txt?

Gruß Rainer

  1. OK, OK

    nicht aufregen, hab es gerade gefunden

    [URL:http://de.selfhtml.org/diverses/robots.htm]

    Gruß Rainer

    1. Uups, und gleich die näcjste "Gurke"

      http://de.selfhtml.org/diverses/robots.htm

  2. Grüße,
    wozu? robots indexieren vom index ausgehend die links - wenn die datei nicht verlinkt ist, dann brauchst du die nicht zu schützen.
    wenn doch - würde sich JS-schreiben der verlinkung empfehlen  da nicht alle crawler die robots.txt beachten.
    MFG
    bleicher

    --
    __________________________-
    Die versprechen ernsthaft werbefreien hosting?
    1. Hallo,

      der Witz ist: es existiert kein Link - nirgendwo - zu dieser Datei, und trotzdem ist sie von Google indexiert worden!
      Wie das nun?

      Gruß Rainer

      1. Grüße,

        der Witz ist: es existiert kein Link - nirgendwo - zu dieser Datei, und trotzdem ist sie von Google indexiert worden!
        Wie das nun?

        das ist eine frage der verzeichnissdarstellung  - google kann selten mehr sehen , als normalsterbliche.
        d.h. dass der verzeichniss in dem die datei ist, öffentlich zugänglich ist.

        MFG
        bleicher

        --
        __________________________-
        Die versprechen ernsthaft werbefreien hosting?
      2. Hi,

        der Witz ist: es existiert kein Link - nirgendwo - zu dieser Datei

        wie kannst Du das wissen? Oder ist der Dateiname wirklich nur Dir allein bekannt?

        freundliche Grüße
        Ingo

  3. HAlten sich eigentlich auch alle Robots an die Vorgaben der robots.txt?

    Kurz gesagt: nein.
    Du kannst robots.txt zwar für einige Bots ausrichten, aber da der Standard dermassen schlecht ist (und deshalb von inoffiziellen Regeln ergänzt wird), gibt es keine Syntax, die alle Bots erreichen kann.
    Weiterhin schlecht ist, dass viele Suchmaschienen ihre Bots sehr schlecht dokumentieren.

    Google akzeptiert die Allow Regel und kennt zudem die Wildcards * (Zeichenkette) und $ (Ende)

    Andere Bots geben vor diese Google Erweiterungen ebenfalls zu lesen.

    mfg Beat

    --
    Woran ich arbeite:
    X-Torah
       <°)))o><                      ><o(((°>o