DaWonderer: SEO + Sitemap

Hallo,

ich habe gerade eine Anfrage vom Kunden bekommen, ob ich fuer eine Webseite die ich vor Jahren erstellt habe eine Sitemap für die Suchmaschinnen erstellen könnte. Damals hatte ich mit META-Angaben in Description und Keywords versucht den Crawler etwas mitzuteilen. Allerdings nicht wirklich gekonnt - die Keywords sind bei so ziemlich jeder Seite die gleichen obwohl aus mehr als 50Unterseiten gibt. Auf Wikipedia habe ich gerade gelesen, dass Keywords im Prinzip gar nicht mehr einbezogen werden (von Google).

Wie kann man die markanten Suchwörter denn jetzt der Suchmaschine mitteilen? Im Protokoll für die Sitemaps habe ich keine XML-Eigenschaft gefunden dafür?!?

danke schon mal für die Hilfe...

  1. Hi,

    Auf Wikipedia habe ich gerade gelesen, dass Keywords im Prinzip gar nicht mehr einbezogen werden (von Google).

    ja, das ist die heute vorherrschende Meinung, die AFAIK auch von Google selbst bestätigt wird.

    Wie kann man die markanten Suchwörter denn jetzt der Suchmaschine mitteilen?

    Im Inhalt der Seite(n). Der Inhalt der Seiten wird indiziert und nach vermeintlich relevanten Suchbegriffen abgegrast. Also sorge dafür, dass deine Inhalte (Text) möglichst aussagekräftig sind.

    So long,
     Martin

    1. Hallo Martin,

      Eine kleine Ergänzung noch:

      Im Inhalt der Seite(n). Der Inhalt der Seiten wird indiziert und nach vermeintlich relevanten Suchbegriffen abgegrast. Also sorge dafür, dass deine Inhalte (Text) möglichst aussagekräftig sind.

      ... die du dann Google mit der XML-Sitemap bloß finden helfen kannst – ist doch eigentlich wesentlich entspannter, als aufwändig irgendwelche Keywords eintragen zu müssen, oder?

      Dein Job besteht dann darin, ggf. Hinweise zur Optimierung der Inhalte zu geben und die Site etwas anzupassen (Valide, Semantisch, mobilfreundlich und HTTPS mag Google gerne!).

      Gruß
      Julius

      1. Eine kleine Ergänzung noch:

        sorge dafür, dass deine Inhalte (Text) möglichst aussagekräftig sind.

        ... die du dann Google mit der XML-Sitemap bloß finden helfen kannst

        Worauf man gar nicht genug hinweisen kann: Die sitemap.xml ist in aller Regel überflüssig, so lange alle Seiten untereinander verbunden sind. Kommt ein menschlicher Besucher von A über B nach C, dann schafft ein Bot das auch.

        Bei 5000 tief verschachtelten Seiten kann man sich das überlegen, aber bei 50 ist eine sitemap.xml vergebene Liebesmüh'.

  2. Beispiel: http://www.handwerkzeugs.de/sitemap.xml

    und guck auch mal in die robots.txt wie du den bots das vorhandensein des sitemap.xml mitteilen kannst. Natürlich auch an google direkt über die webmastertools.

    1. Hallo pl,

      Beispiel: http://www.handwerkzeugs.de/sitemap.xml

      und guck auch mal in die robots.txt

      Allow: / ist sinnfrei. Das ist quasi ohnehin die Voreinstellung. Gedacht ist allow für das Erlauben weniger Ausnahmen, etwa

      User-agent: *
      Disallow: /
      Allow: /foo/
      

      Zu beachten ist, dass sowohl Allow als auch Sitemap nicht zum (ursprünglichen) robots exclusion protocol gehören.

      Bis demnächst
      Matthias

      --
      Wenn eine Idee nicht zuerst absurd erscheint, taugt sie nichts. (Albert Einstein)
      1. Das ist quasi ohnehin die Voreinstellung. Gedacht ist allow für das Erlauben weniger Ausnahmen, etwa

        User-agent: *
        Disallow: /
        Allow: /foo/
        

        Das funktioniert so nur bei Google. Die robots.txt wird grundsätzlich von oben nach unten abgearbeitet und der erste passende Eintrag zählt. In deiner robots.txt wird "Allow: /foo/" nie erreicht werden, weil das davor stehende "Disallow: /" schon sämtliche Pfade erschlägt.
        Korrekt wäre:

        User-agent: *
        Allow: /foo/
        Disallow: /
        

        Google findet das aber blöd und weil Google sich so für das Internet hält wie Microsoft für das Betriebssystem, hat Google das mal eben bei sich umdefiniert.

        1. Hallo Der Name ist bereits vergeben,

          in der Tat.

          Bis demnächst
          Matthias

          --
          Wenn eine Idee nicht zuerst absurd erscheint, taugt sie nichts. (Albert Einstein)
          1. Hallo Matthias Apsel,

            in der Tat.

            Ich ziehe meine Zustimmung zurück.

            Bis demnächst
            Matthias

            --
            Wenn eine Idee nicht zuerst absurd erscheint, taugt sie nichts. (Albert Einstein)
        2. Hallo Der Name ist bereits vergeben,

          Das ist quasi ohnehin die Voreinstellung. Gedacht ist allow für das Erlauben weniger Ausnahmen, etwa

          User-agent: *
          Disallow: /
          Allow: /foo/
          

          Das funktioniert so nur bei Google. Die robots.txt wird grundsätzlich von oben nach unten abgearbeitet und der erste passende Eintrag zählt. In deiner robots.txt wird "Allow: /foo/" nie erreicht werden, weil das davor stehende "Disallow: /" schon sämtliche Pfade erschlägt.
          Korrekt wäre:

          User-agent: *
          Allow: /foo/
          Disallow: /
          

          Nein. Allow ist für das Erlauben von Verzeichnissen innerhalb gesperrter Verzeichnisse gedacht. Deshalb ist die erste Reihenfolge korrekt: Sperre die gesamte Domain, lass aber das Verzeichnis foo trotzdem zu.

          In

          User-agent: *
          Disallow: /foo/
          Allow: /bar/
          

          hingegen ist das Allow: /bar/ nach wie vor sinnfrei.

          Google findet das aber blöd und weil Google sich so für das Internet hält wie Microsoft für das Betriebssystem, hat Google das mal eben bei sich umdefiniert.

          Die Datei wird nach wie vor von oben nach unten abgearbeitet.

          Bis demnächst
          Matthias

          --
          Wenn eine Idee nicht zuerst absurd erscheint, taugt sie nichts. (Albert Einstein)
    2. Hi pl,

      Beispiel: http://www.handwerkzeugs.de/sitemap.xml

      In der Sitemap fehlen aber noch einige Informationen, oder?

      <url>
        <loc>http://example.de/</loc>
        <priority>1.0</priority>
        <lastmod>2016-03-23T10:44:42+02:00</lastmod>
        <changefreq>weekly</changefreq>
      </url>
      

      Bis bald

      --
      Hosen sind Blau