oxo888oxo: robits.txt unter www nicht erreichbar

Hallo

Ich habe per .htaccess-Datei meine Domain von nicht-www auf www umgeleitet. Wenn jemand example.org eingibt, landet er also automatisch auf www.example.org ("example.org" nur hier statt meiner richtigen URL).

Das hat jetzt aber irgendwie zur Folge, dass Google meine robotx.txt-Datei nicht mehr sehen kann. Wenn ich selbst meine robots.txt-Datei aufrife, bekomme ich von Firefox-Browser folgende Meldung:

"Fehler: Umleitungsfehler Die aufgerufene Website leitet die Anfrage so um, dass sie nie beendet werden kann."

Google schreibt dazu das hier: https://developers.google.com/webmasters/control-crawl-index/docs/robots_txt?hl=de

Wenn ich das jetzt richtig verstehe, muss ich 2 Dateien haben, eine für ohne-www und eine für mit-www.

Oder verstehe ich das falsch? Oder wo ist da jetzt bei mir der Fehler Über Eure Hilfe würde ich mich sehr freuen.

Gruß Ingo

  1. Aloha ;)

    Oder wo ist da jetzt bei mir der Fehler

    Schätzungsweise da, wo du ihn schon selbst gefunden hast:

    Wenn ich selbst meine robots.txt-Datei aufrife, bekomme ich von Firefox-Browser folgende Meldung:

    "Fehler: Umleitungsfehler
    Die aufgerufene Website leitet die Anfrage so um, dass sie nie beendet werden kann."

    Offensichtlich ist also deine Umleitung fehlerhaft, sonst müsstest du ja die robots.txt sehen, und nicht diese Fehlermeldung. Und wenn du sie schon nicht "manuell" aufrufen kannst, kann Google das selbstverständlich auch nicht.

    Wenn ich das jetzt richtig verstehe, muss ich 2 Dateien haben, eine für ohne-www und eine für mit-www.

    (Ohne die verlinkte Seite konkret gelesen zu haben...) Zwei robots.txt brauchst du sicher nicht, wenn deine Umleitung richtig gemacht ist. Oder allenfalls im Spezialfall, je nachdem, wie du umleitest.

    Grüße,

    RIDER

    --
    Camping_RIDER a.k.a. Riders Flame a.k.a. Janosch Zoller
    # Facebook # Twitter # Steam # YouTube # Self-Wiki # Selfcode: sh:) fo:) ch:| rl:) br:^ n4:? ie:% mo:| va:) js:) de:> zu:} fl:( ss:) ls:[