Ben: SEO - Zusätzliche statische Kopie dynamischer Seiten

Hallo zusammen

Ich muss für eine Seite Suchmaschinenoptimierungen einbauen. Die Firma, die diese Vorschläge macht, sagt nun folgendes, was mir total unklar ist:

Es wäre gut, wenn von jeder dynamisch generierten Seite eine physische Kopie (als .html) auf dem Server zur Verfügung stehen würde. Sie (die Firma) würden dann ein Link-File machen und die Suchmaschinen würden dann diese Seiten indexieren, was besser wäre. Es geht explizit nicht um "statische URL"'s für dynamische Seiten, sondern um physische .html-Seiten.

Ich frage mich nun:
-Wie sollen die Suschmaschinen die statischen Seiten finden, wenn ich auf der für den Benutzer sichtbaren Seite immer noch die dynamischen Seiten verlinkt habe
-Falls sie doch gefunden werden:
--Wie soll die Suchmaschine erkennen, welches die dynamische Seite zu der statischen Seite ist? Ich möchte ja dann in der Suchmaschine die Links auf die dynamischen Seiten haben.
--Finden die das gut, wenn ich alles doppelt habe?

Mir ist klar, dass es CMS gibt, die einfach statische Seiten generieren. Mir ist auch klar, dass die URL umgeschrieben werden kann. Aber das ist mir unklar. Kann mir das jemand erklären?

Danke und Gruss
Ben

  1. Moin Moin!

    Ich muss für eine Seite Suchmaschinenoptimierungen einbauen. Die Firma, die diese Vorschläge macht, sagt nun folgendes, was mir total unklar ist:

    SEO

    Es wäre gut, wenn von jeder dynamisch generierten Seite eine physische Kopie (als .html) auf dem Server zur Verfügung stehen würde. Sie (die Firma) würden dann ein Link-File machen und die Suchmaschinen würden dann diese Seiten indexieren, was besser wäre. Es geht explizit nicht um "statische URL"'s für dynamische Seiten, sondern um physische .html-Seiten.

    Mumpitz. Woher soll irgendjemand außerhalb des Webservers wissen, ob die angeforderte Resource zufällig eine statische Datei ist? Richtig, das GEHT NICHT. Man kann anhand der URL und der Standard-Konfiguration vieler Webserver raten, dass gewisse URLs aus statischen Dateien geliefert werden. Aber genauso kann der Server so konfiguriert sein, dass es nur so aussieht.

    Nicht einmal anhand der Reaktionszeit kann man raten. Ein hochoptimierter Webserver kann eine dynamisch generierte Resource aus seinem Cache durchaus flotter ausliefern als ein zerkonfigurierter Webserver eine statische Datei von der Platte kratzen kann. In der Regel können statische Dateien natürlich schneller ausgeliefert werden, und Google soll Gerüchten zufolge schnelle Server geringfügig höher bewerten. Aber das ist nur ein kleiner von vielen Faktoren und kann morgen schon wieder Geschichte sein.

    Was soll ein "Link-File" sein? Eine Sitemap? Die setzt keine statischen Dateien voraus, kann sogar selbst dynamisch generiert werden.

    Oder eine Link-Farm, die tonnenweise schwachsinnige Begriffe mit irgendwelchen Webseiten verlinkt? Sprich: Suchmaschinen-Spam?

    Ich frage mich nun:
    -Wie sollen die Suschmaschinen die statischen Seiten finden, wenn ich auf der für den Benutzer sichtbaren Seite immer noch die dynamischen Seiten verlinkt habe

    Frag das mal Deinen Anbieter.

    -Falls sie doch gefunden werden:
    --Wie soll die Suchmaschine erkennen, welches die dynamische Seite zu der statischen Seite ist?

    Das geht nur mit einem weiteren Link von statisch zu dynamisch.

    Ich möchte ja dann in der Suchmaschine die Links auf die dynamischen Seiten haben.

    So soll es ja auch sein.

    --Finden die das gut, wenn ich alles doppelt habe?

    Vermutlich nicht.

    Mir ist klar, dass es CMS gibt, die einfach statische Seiten generieren. Mir ist auch klar, dass die URL umgeschrieben werden kann. Aber das ist mir unklar. Kann mir das jemand erklären?

    Such Dir einen anderen Optimierer, der den SeitenINHALT aufbessert, statt so fragwürdigen Müll zu produzieren.

    Alexander

    --
    Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
  2. -Wie sollen die Suschmaschinen die statischen Seiten finden, wenn ich auf der für den Benutzer sichtbaren Seite immer noch die dynamischen Seiten verlinkt habe

    Ggf. durch versteckte Doorway-Pages mir Frames.

    --Wie soll die Suchmaschine erkennen, welches die dynamische Seite zu der statischen Seite ist? Ich möchte ja dann in der Suchmaschine die Links auf die dynamischen Seiten haben.

    Duplicate Content könnte dich hierzu interessieren - Suchmaschinen sind teilweise sehr schlau im Ausfiltern von Redundanzen.

    --Finden die das gut, wenn ich alles doppelt habe?

    Das is denen idR. Egal.

    Mir ist klar, dass es CMS gibt, die einfach statische Seiten generieren. Mir ist auch klar, dass die URL umgeschrieben werden kann. Aber das ist mir unklar. Kann mir das jemand erklären?

    Ggf. aus Geschwindigkeitsgründen - statische Seiten werden schneller ausgeliefert. Aber das würde ein schlaues CMS besser und vor allem ohne redundanten und "gefährliche" Vorgehensweisen Regeln.

  3. Ich muss für eine Seite Suchmaschinenoptimierungen einbauen.

    Ich würde vorher diverses anderes ausbauen.

    Die Firma, die diese Vorschläge macht, sagt nun folgendes, was mir total unklar ist:
    Es wäre gut, wenn von jeder dynamisch generierten Seite eine physische Kopie (als .html) auf dem Server zur Verfügung stehen würde.

    Das kann wärtlich nur heissen: Cache die Seiten als html-Seiten und liefere diese aus, wenn möglich. Das hat mit SEO noch nichts zu tun, aber mit Performance-Tuning und ist grundsätzlich eine gute Sache.

    Sie (die Firma) würden dann ein Link-File machen und die Suchmaschinen würden dann diese Seiten indexieren, was besser wäre. Es geht explizit nicht um "statische URL"'s für dynamische Seiten, sondern um physische .html-Seiten.

    Seiten können dann statisch ausgeliefert werden, wenn sie keine User-abhängigen Verarbeitungen voraussetzen.
    Eine solche Prüfung kann bereits mit mod_rewirte auf der basis von Cookie-Tests erfolgen, und entsprechend eine (wenn vorhandene) statische Seite ausliefern.

    Ich frage mich nun:
    -Wie sollen die Suschmaschinen die statischen Seiten finden, wenn ich auf der für den Benutzer sichtbaren Seite immer noch die dynamischen Seiten verlinkt habe

    statische und dynamische URL sollen sich nicht unterscheiden. Der Unterschied liegt in den Cookies.

    In meiner CMS htaccess steht zum Beispiel unter anderem:

    Umleitung fuer statische Seiten

    RewriteCond %{HTTP_COOKIE} ^$ [OR]
    RewriteCond %{HTTP_COOKIE} status=(guest|robot)
    RewriteRule ^(==)$ __static/$1.html [L]

    Falls statische Seiten berechnet sind, wird die Regel durch das CMS umgeschrieben zu
    RewriteRule ^(==|example|beispiel|statische_seite)$ __static/$1.html [L]

    Wie du das löst, ist abhängig von deine Implementation.

    mfg Beat

    --
    ><o(((°>           ><o(((°>
       <°)))o><                     ><o(((°>o
    Der Valigator leibt diese Fische
    1. Das kann wärtlich nur heissen: Cache die Seiten als html-Seiten und liefere diese aus, wenn möglich. Das hat mit SEO noch nichts zu tun, aber mit Performance-Tuning und ist grundsätzlich eine gute Sache.

      Sicher hat das mit SEO zu tun - hat eine Seite mit exakt demselben Inhalt wie eine andere Seite eine höhere Performance, wird sie auch besser gerankt.

      1. Das kann wärtlich nur heissen: Cache die Seiten als html-Seiten und liefere diese aus, wenn möglich. Das hat mit SEO noch nichts zu tun, aber mit Performance-Tuning und ist grundsätzlich eine gute Sache.

        Sicher hat das mit SEO zu tun - hat eine Seite mit exakt demselben Inhalt wie eine andere Seite eine höhere Performance, wird sie auch besser gerankt.

        Das glaube ich nicht, das darf ich nicht glauben. Wenn es denn wahr wäre, müsste man gegen Google einschreiten, weil es einer Spoofing Seite erlaubt, vor dem Original gelistet zu werden.

        Please rephrase your answer.

        mfg Beat

        --
        ><o(((°>           ><o(((°>
           <°)))o><                     ><o(((°>o
        Der Valigator leibt diese Fische
        1. Sicher hat das mit SEO zu tun - hat eine Seite mit exakt demselben Inhalt wie eine andere Seite eine höhere Performance, wird sie auch besser gerankt.

          Das glaube ich nicht, das darf ich nicht glauben. Wenn es denn wahr wäre, müsste man gegen Google einschreiten, weil es einer Spoofing Seite erlaubt, vor dem Original gelistet zu werden.

          Es gibt natürlich auch Duplicate Content auf fremden Domains.

          Please rephrase your answer.

          "exakt demselben Inhalt" sollet wohl "gleichwertiger Inhalt sein".

          Jedenfalls sagt Google "schnelle Seiten werden belohnt".

          1. Sicher hat das mit SEO zu tun - hat eine Seite mit exakt demselben Inhalt wie eine andere Seite eine höhere Performance, wird sie auch besser gerankt.

            Das glaube ich nicht, das darf ich nicht glauben. Wenn es denn wahr wäre, müsste man gegen Google einschreiten, weil es einer Spoofing Seite erlaubt, vor dem Original gelistet zu werden.

            Es gibt natürlich auch Duplicate Content auf fremden Domains.

            Please rephrase your answer.

            "exakt demselben Inhalt" sollet wohl "gleichwertiger Inhalt sein".

            Jedenfalls sagt Google "schnelle Seiten werden belohnt".

            "While site speed is a new signal, it doesn't carry as much weight as the relevance of a page. Currently, fewer than 1% of search queries are affected by the site speed signal in our implementation and the signal for site speed only applies for visitors searching in English on Google.com at this point. We launched this change a few weeks back after rigorous testing. If you haven't seen much change to your site rankings, then this site speed change possibly did not impact your site.
            "

            Ich kann nichts entdecken, dass von gleichem oder auch nur gleichwertigem Inhalt spricht.
            Ich denke, es geht um das SERP Ranking, und keines falls um eine Entscheidung bezüglich originalem Inhalt.

            Google bietet andere Mechanismen dafür (link rel="canonical")

            mfg Beat

            --
            ><o(((°>           ><o(((°>
               <°)))o><                     ><o(((°>o
            Der Valigator leibt diese Fische
            1. "While site speed is a new signal, it doesn't carry as much weight as the relevance of a page. Currently, fewer than 1% of search queries are affected by the site speed signal in our implementation and the signal for site speed only applies for visitors searching in English on Google.com at this point. We launched this change a few weeks back after rigorous testing. If you haven't seen much change to your site rankings, then this site speed change possibly did not impact your site.
              "

              1 % bei mindestens einer Billion Seiten im Index ist aber schon viel ;)

              Ich kann nichts entdecken, dass von gleichem oder auch nur gleichwertigem Inhalt spricht.

              Die Sache impliziert das - welche Seiten sollten sonst gemeinsam bei einer Suchanfrage ausgespuckt werden? Themenverwandte mit relevantem Inhalt jedenfalls.

              Ich denke, es geht um das SERP Ranking, und keines falls um eine Entscheidung bezüglich originalem Inhalt.

              Das wird ja bei der Duplicate-Content-Sache schon geprüft.

              Google bietet andere Mechanismen dafür (link rel="canonical")

              Wenn man es per Hand machen will, ja - ansonsten passiert das durchaus automatisch.

  4. Hallo,

    Es wäre gut, wenn von jeder dynamisch generierten Seite eine physische Kopie (als .html) auf dem Server zur Verfügung stehen würde. Sie (die Firma) würden dann ein Link-File machen und die Suchmaschinen würden dann diese Seiten indexieren, was besser wäre. Es geht explizit nicht um "statische URL"'s für dynamische Seiten, sondern um physische .html-Seiten.

    Sowas habe ich vor langer Zeit einmal gemacht, und zwar aus zwei Gründen:

    1. War der ganze Inhalt nicht über normale Links erreichbar, sondern nur über JS-Funktionen, so dass ein Spider die Seiten gar nicht gefunden hätte. Also wurde ein Link auf eine Sitemap mit verlinkten physischen .html-Dateien gesetzt.

    2. Hoffte der Betreiber, dass URLS wie superseite.invalid/Stichwort1/Stichwot2/Stichwort3/Stichwort4.Stichwort5.Stichwort6.htm für eine Kombination solcher Stichworte besser gerankt werden.

    Das mit dem besseren Ranking schien sogar zu funktionieren, ist aber schon knapp 10 Jahre her...

    Später sagte mir der Betreiber der Site, dass er die statischen Dateien inzwischen wieder abgeschaftte habe, weil die langen URLs nicht mehr merklich besser seien bzw. eine Sitemap mit dymaischen URLs inzwischen ebenso gut funktioniere.

    Gruß, Don P