Semba: sitemap

Ist eine sitemap wirklich so wichtig? Ich meine google indiziert doch sowieso nur die Seiten, die es für wichtig hält. Abgesehen davon müßte eine sitemap ja täglich aktualisiert werden, wenn die Seite aktualisiert wird? Und dann gibt es im Netz ja fast nur noch Seiten, die Sitemaps bis maximal 500 Links anbieten. Selbst bei der suche nach Sitemap unlimited kommen viele Anbieter, wo man am Ende merkt das doch nicht alle Seiten in die sitemap übernommen wurden.

  1. Ist eine sitemap wirklich so wichtig?

    Es schafft Ordnung und es unterstützt die Bots bei der Indizierung Deiner Site. Du kannst es in die robots.txt eintragen:

    User-agent: *
    Allow: /
    Sitemap: /sitemap.xml

    Ich meine google indiziert doch sowieso nur die Seiten, die es für wichtig hält.

    Ein Bot indiziert besonders gerne Seiten mit interessanten Inhalten. Eine in sitemap.xml aufgeführte Seite muss auch für den menschlichen Benutzer sichtbar sein (nurmalso als Hinweis).

    Abgesehen davon müßte eine sitemap ja täglich aktualisiert werden, wenn die Seite aktualisiert wird?

    Das bietet sich an und Du kannst das Automatisieren.

    MfG

  2. Abgesehen davon müßte eine sitemap ja täglich aktualisiert werden, wenn die Seite aktualisiert wird? Und dann gibt es im Netz ja fast nur noch Seiten, die Sitemaps bis maximal 500 Links anbieten...

    Du willst jetzt nicht sagen, dass Dein CMS keine Sitemap generiert? Oder dass Du eine Webseite mit 500 Seiten "von Hand" (also ohne CMS) pflegst?

    Das wären dann auch die Lösungsansätze.

    Jörg Reinholz

  3. હેલો

    Ist eine sitemap wirklich so wichtig? Ich meine google indiziert doch sowieso nur die Seiten, die es für wichtig hält.

    Frag Google!

    Abgesehen davon müßte eine sitemap ja täglich aktualisiert werden, wenn die Seite aktualisiert wird? Und dann gibt es im Netz ja fast nur noch Seiten, die Sitemaps bis maximal 500 Links anbieten. Selbst bei der suche nach Sitemap unlimited kommen viele Anbieter, wo man am Ende merkt das doch nicht alle Seiten in die sitemap übernommen wurden.

    Die Sitemap sollte dein CMS generieren. Ein Online-Sitemapgenerator kann nur die Seiten aufnehmen, auf die innerhalb der Seiten verlinkt wird. Da  geht sicherlich auch einiges verloren.

    બાય

    --
     .
    ..:
  4. Ist eine sitemap wirklich so wichtig? Ich meine google indiziert doch sowieso nur die Seiten, die es für wichtig hält.

    Nein, Google nimmt grundsätzlich alles auf. Google spuckt jedoch nur aus, was zu den jeweiligen Stichworten passt, was also bei der jeweiligen Suche wichtig erscheint. Daran ändert man auch mit einer Sitemap nichts.

    Abgesehen davon müßte eine sitemap ja täglich aktualisiert werden, wenn die Seite aktualisiert wird?

    Richtig. Was nützt ein Inhaltsverzeichnis, wenn die Inhalte nicht verzeichnet sind.

    Und dann gibt es im Netz ja fast nur noch Seiten, die Sitemaps bis maximal 500 Links anbieten. Selbst bei der suche nach Sitemap unlimited kommen viele Anbieter, wo man am Ende merkt das doch nicht alle Seiten in die sitemap übernommen wurden.

    Du meinst externe Sitemap-Generatoren? Das ist schlichtweg Unsinn, wer glaubt, sowas benutzen zu müssen, hat nicht verstanden, wie Google seinen Index aufbaut.

    Überlegen wir mal: Google durchsucht selbständig deine Webseiten, indem der Googlebot eine Seite aufruft und den darin enthaltenen Verweisen folgt. Wie, glaubst du, erstellt wohl ein Sitemap-Anbieter eine Sitemap deiner Seiten? Genau, er ruft eine Seite auf und folgt den darin enthaltenen Verweisen – das Gleiche wie der Googlebot.
    Das externe, automatisierte Erstellen einer Sitemap ist also vergebene Liebesmüh', das kann Google auch alleine. Unterm Strich verdoppelst du nur die Last auf deinem Server, weil du zusätzlich zum Googlebot noch den Sitemap-Fritzen über deine Seiten rennen lässt.

    Nutzen bringt eine Sitemap nur, wenn das automatische Durchsuchen deiner Seiten nicht möglich ist, weil du entweder keine Verweise auf bestimmte Seiten führst oder diese für Javascript-Abstinenzler unbenutzbar eingebaut hast. Google schreibt es auf der von Malcom schon erwähnten Seite:

    "

    • Ihre Website enthält Seiten, die beim Crawlen durch den Googlebot nicht ohne Weiteres zu entdecken sind, wie beispielsweise Seiten mit Rich AJAX oder Bildern.
      […]
    • Ihre Website verfügt über ein großes Archiv von Inhaltsseiten, die kaum oder gar nicht untereinander verknüpft sind.
      "

    Also, erstens: Wenn Sitemap, dann selbst aus einer Datenbank oder manuell erstellt. Aber nicht per Web-Crawler und schon gar nicht von extern.

    Zweitens könnte eine Sitemap von Interesse sein, wenn du Wert auf die Angabe der Änderungsfrequenz und der Priorität legst.
    Hast du zum Beispiel ein riesiges Archiv, könntest du versuchen, die Last, die Suchmaschinen bzw. deren Bots auf deinem Server erzeugen, zu verringern, indem du angibst, dass sich die Seiten unter den Archiv-URLs nicht mehr ändern.
    Du könntest archivierten Seiten von Anno Dazumal auch eine geringere Priorität verpassen, damit bei einer Suche deine aktuelleren Seiten vor deinen ollen Kamellen erscheinen.