Eddie: Testverfahren für Suchmaschinenoptimierung gesucht

Hallo allerseits,

(vorab: ich frage aus gutem Grund im Selfforum, denn ich erhoffe mir, hier vielleicht ein bisschen Sensibilität zu finden, was die technischen Aspekte meiner Frage angeht. Was den eigentlichen Vorgang der Suchmaschinenoptimierung angeht, gibt es natuerlich spezialisierte Foren - aber dort fehlt oft der technische Hintergrund, und auch mitunter das Niveau.)

Also: fuer ein neues Projekt moechte ich schon vor Beginn der eigentlichen Programmierung (LAMP) testen, wie die zukuenftigen Seiten aussehen muessen, um Google und Co. anzulocken.
Das Ganze soll wissenschaftlich vorgehen, muss also auch dokumentierbar sein. Insb. muessen die gewonnenen Erkenntnisse nachvollziehbar sein.

Mir schwebt vor, eine Vielzahl von Test-HTML-Seiten zu passenden Themen zu erzeugen. Es soll dann verfolgt werden, wie Google auf die einzelnen Seiten reagiert, und im Endeffekt eine Entscheidung in Bezug auf die erfolgversprechendsten Verfahren getroffen werden. Die Laufzeit des Tests wird 2-3 Monate betragen.

Das Ganze muss natürlich so frei wie möglich von äußeren Einflüssen sein. Ein externer Link auf nur eine der Seiten waere z.B. toedlich fuer die Vergleichbarkeit der Ergebnisse, weil Google diese eine Seite dann ggf. favorisieren wuerde.

Wie würdet ihr bei sowas vorgehen?
Welche Probleme seht ihr?

Ist alles noch recht allgemein formuliert, wenn was nicht klar ist, schreib ich gern noch was dazu.

Danke für eure Hilfe,
Eddie

P.S.: ich werde selbstverstaendlich nur Techniken einsetzen, die jeder hier gutheissen wuerde (also z.B. <h1-6>, <title>, <meta...>). Ausserdem wird selbstverstaendlich der erwartete Inhalt auch vorhanden sein, ich habe schließlich nicht vor, meine Besucher an der Nase rumzuführen! Also bitte keine Kritik in dieser Richtung!

--
Old men and far travelers may lie with authority.
  1. hi,

    Welche Probleme seht ihr?

    zu viele.

    sollen alle seiten die gleichen stichwörter/suchbegriffe enthalten?
    dann wird google die auf die erste gespiderte folgenden als duplikate ansehen, dass gibt "punktabzug".
    oder sollen alle unterschiedliche inhalte haben? dann ist peinlichst darauf zu achten, dass deren bisherige "bekanntheit" bei google gleich null ist. fragt sich nur, wie man diese "bekanntheit" messen will - ist google unbekannt, wozu google aktuell keinen treffer liefert? nein, diese betrachtung hielte ich für naiv.

    was, wenn google seinen ranking-algorithmus zwischendurch mal wieder anpasst? und wenn diese anpassung noch dazu irgendwo zwischen dem spidern der einzelnen testseiten liegt?

    wenn keine externe links auf die testseiten zeigen sollen, sollen sie wahrscheinlich manuell bei google angemeldet werden? das hat aber auch schon wieder mit "realen" bedingungen recht wenig zu tun.

    ich glaube nicht an die aussagekraft eines solchen "experimentes", weil einfach zu viele faktoren involviert sind, die außerhalb deines einfluss- und messbereiches liegen.

    sicher, ein paar "ergebnisse" wirst du schon ermitteln können - deren interpretation wird dann aber letzten endes mehr auf mutmaßungen und wunschdenken basieren, als irgendeinen bezug zur realität haben.

    gruß,
    wahsaga

    --
    /voodoo.css:
    #GeorgeWBush { position:absolute; bottom:-6ft; }
    1. Hi,

      oder sollen alle unterschiedliche inhalte haben? dann ist peinlichst darauf zu achten, dass deren bisherige "bekanntheit" bei google gleich null ist.

      warum das denn?

      Gruß, Andreas

      --
      SELFFORUM - hier werden Sie geholfen,
      auch in Fragen zu richtiges Deutsch
      1. hi,

        oder sollen alle unterschiedliche inhalte haben? dann ist peinlichst darauf zu achten, dass deren bisherige "bekanntheit" bei google gleich null ist.

        warum das denn?

        wenn es schon andere seiten gibt, die gleiche/ähnliche inhalte haben - wie will man dann noch beurteilen, ob und warum google diese vor oder hinter den eigenen testseiten einordnet, etc. ...?

        gruß,
        wahsaga

        --
        /voodoo.css:
        #GeorgeWBush { position:absolute; bottom:-6ft; }
  2. Hi,

    Das Ganze soll wissenschaftlich vorgehen, muss also auch dokumentierbar sein. Insb. muessen die gewonnenen Erkenntnisse nachvollziehbar sein.

    ich verstehe nicht, was daran eine Wissenschaft sein soll/muß.
    Zunächst ist es wichtig, daß man es einem Robot nicht zu schwer macht. Links über JavaScript sind z.B. schlecht.
    Das betrifft den Crawler. (Testen kannst Du das techn. z.B. mit http://www.w3sitesearch.de oder wget.

    Inwiefern Du eine gute Position bekommst ist aber eine andere Frage.
    Ich empfehle, sich gar nicht zuviele Gedanken über die Technik zu machen. Baue einfach eine inhaltlich interessante Seite, die sich auch textlich abhebt. Der Rest kommt von alleine.

    Gruß
    Reiner