Natascha: Framesets und Suchmaschinen

Hallo,

hier eine Frage an die Suchmaschinenauskenner:

Ich baue meine Seiten gerne mit Framesets auf, dh. z.B. eine index.html (mit dem Frameset) eine nav.html und eine page.html.
Wie kann ich verhindern das manche Suchmaschinen die einzelnen page- oder nav-Dateien finden? Gefunden werden soll nur die index.html, allerdings sollen die robots auch den Inhalt der page.html bei ihrer Suche berücksichtigen.
Bringt es etwas wenn ich aus den nav- u. page-Dateien sämtliche Metatags entferne?

Vielen Dank im vorraus,

die Natascha

  1. hallo natascha,
    du musst mit der robots.txt arbeiten.
    dann einen ordner anlegen, wo alle html seiten drin stehen, die nicht vom spider durchsucht werden sollen
    und in der robots. txt schreibst du dann disallow: /ordner
    beispiel:

    robots.txt zu http://www.mein-name.de/

    User-agent: UniservalRobot/1.0
    User-agent: mein-Robot
    Disallow: /quellen/dtd/
    Allow: /quellen/dtd/index.html

    User-agent: *
    Disallow: /unsinn/
    Disallow: /temp/
    Disallow: /newsticker.shtml

    mehr dazu kannst du im selfhtml-forum nachlesen

    Hallo,

    hier eine Frage an die Suchmaschinenauskenner:

    Ich baue meine Seiten gerne mit Framesets auf, dh. z.B. eine index.html (mit dem Frameset) eine nav.html und eine page.html.
    Wie kann ich verhindern das manche Suchmaschinen die einzelnen page- oder nav-Dateien finden? Gefunden werden soll nur die index.html, allerdings sollen die robots auch den Inhalt der page.html bei ihrer Suche berücksichtigen.
    Bringt es etwas wenn ich aus den nav- u. page-Dateien sämtliche Metatags entferne?

    Vielen Dank im vorraus,

    die Natascha

    1. hallo natascha,
      du musst mit der robots.txt arbeiten.
      dann einen ordner anlegen, wo alle html seiten drin stehen, die nicht vom spider durchsucht werden sollen
      und in der robots. txt schreibst du dann disallow: /ordner
      beispiel:

      robots.txt zu http://www.mein-name.de/

      User-agent: UniservalRobot/1.0
      User-agent: mein-Robot
      Disallow: /quellen/dtd/
      Allow: /quellen/dtd/index.html

      User-agent: *
      Disallow: /unsinn/
      Disallow: /temp/
      Disallow: /newsticker.shtml

      mehr dazu kannst du im selfhtml-forum nachlesen

      Vielen Dank, aber werden beim ausschliessen der Dateien auch noch die Inhalte von den Suchmaschinen-robots berücksichtigt. Ich hatte noch die Idee alle Text-Inhalte in einem noframe-Bereich in der index.html zu kopieren, sozusagen als "robot-Futter" - macht das überhaupt Sinn?

      die Natascha

      1. Halihallo

        Vielen Dank, aber werden beim ausschliessen der Dateien auch noch die Inhalte von den Suchmaschinen-robots berücksichtigt. Ich hatte noch die Idee alle Text-Inhalte in einem noframe-Bereich in der index.html zu kopieren, sozusagen als "robot-Futter" - macht das überhaupt Sinn?

        Nö, wenn Dateien ausgeschlossen sind (durch robots.txt) werden sie nicht weiter durchsucht. <noframe> - Bereiche sollten auch nur als das benutzt werden, wofür sie geschaffen wurden: Für Browser, welche keine Frames darstellen können.

        Viele Grüsse

        Philipp

      2. Vielen Dank, aber werden beim ausschliessen der Dateien auch noch die Inhalte von den Suchmaschinen-robots berücksichtigt.

        natürlich nicht, das ist ja der sinn und zweck, dann musst du halt mehrere framesets anlegen und ins rootverzeichnis packen und die framesets dann entsprechend verhsclagworten

        Ich hatte noch die Idee alle Text-Inhalte in einem noframe-Bereich in der index.html zu kopieren, sozusagen als "robot-Futter" - macht das überhaupt Sinn?
        nein

        die Natascha

        1. natürlich nicht, das ist ja der sinn und zweck, dann musst du halt mehrere framesets anlegen und ins rootverzeichnis packen und die framesets dann entsprechend verhsclagworten

          Mit verschlagworten meinst du wohl keywords usw. in den Metatags. Eine andere Möglichkeit scheint es also nicht zu geben, das der ganze Inhalt durchsucht wird.
          Da muss ich wohl auf Framesets besser verzichten um optimale Suchergebnisse zu erhalten.

          die Natascha

          1. Moin

            Mit verschlagworten meinst du wohl keywords usw. in den Metatags. Eine andere Möglichkeit scheint es also nicht zu geben, das der ganze Inhalt durchsucht wird.

            Hier stehen etliche Hintergrundinfos zum dem Thema:

            Webmaster FAQ: Seitengestaltung für Suchmaschinen
            http://www.suchfibel.de/6gefunden/faqgestaltung.htm
            Webmaster FAQ: Meta Angaben, Frames
            http://www.suchfibel.de/6gefunden/faqmetaangaben.htm

            HTH, besten Gruss, Stefan

            1. Moin

              Mit verschlagworten meinst du wohl keywords usw. in den Metatags. Eine andere Möglichkeit scheint es also nicht zu geben, das der ganze Inhalt durchsucht wird.

              Hier stehen etliche Hintergrundinfos zum dem Thema:

              Webmaster FAQ: Seitengestaltung für Suchmaschinen
              http://www.suchfibel.de/6gefunden/faqgestaltung.htm
              Webmaster FAQ: Meta Angaben, Frames
              http://www.suchfibel.de/6gefunden/faqmetaangaben.htm

              HTH, besten Gruss, Stefan

              Vielen Dank Stefan,

              die Natascha

  2. Halihallo

    Ich baue meine Seiten gerne mit Framesets auf, dh. z.B. eine index.html (mit dem Frameset) eine nav.html und eine page.html.
    Wie kann ich verhindern das manche Suchmaschinen die einzelnen page- oder nav-Dateien finden? Gefunden werden soll nur die index.html, allerdings sollen die robots auch den Inhalt der page.html bei ihrer Suche berücksichtigen.
    Bringt es etwas wenn ich aus den nav- u. page-Dateien sämtliche Metatags entferne?

    Nö, das bringt nicht viel. Das wonach du suchst, heisst robots.txt und du findest genug darüber, wenn du bei google suchst.

    Nur kurz:
    mit robots.txt kannst du sagen, welche Dateien von der Suchmaschine indiziert werden sollen und welche nicht.

    Viele Grüsse

    Philipp

    1. Nö, das bringt nicht viel. Das wonach du suchst, heisst robots.txt und du findest genug darüber, wenn du bei google suchst.

      http://selfhtml.teamone.de/diverses/robots.htm