Gustl: Das fruchtbare Thema Suchmaschinen

Hi all, ich hab mir mal folgendes rangenommen und gelesen und gelesen und gelesen ...

K. Schallhorn und die nette Geschichte von dem trockenen Robot am Tresen mit dem sich der eingebildete Webdesigner anlegt :)

Ich muss sagen sehr lehrreich, wenn ich davon ausgehe dass auch alles so stimmt wie´s drinnen steht.

Nun, ich hab da ein paar Sachen gefunden über die ich gerne Eure Meinung hören würde. Trotz des Themas Meinung aber bitte nur sachdienlich fundiert.

Wie ich Schallhorn verstehe ist u.a. auch die Anzahl wertvoller Links auf textbasierende, fundierte Seiten sehr wichtig für´s Ranking sowie natürlich auch der Backlink auf meine Seite, die natürlich widerum wertvollen Text enthält (oder sollte ...) :), da die grossen Robots seit eingen Jahren URI´s u.a. danach gewichten. Nicht klar ist mir wie der Link gestaltet sein muss resp. ob es ein reiner Textlink sein muss <a href="verweis">text</a> oder ob´s eine Grafik genauso tut. Wird <a href="verweis"><img src="bildchen" alt="text"></a> ebenso bewertet ? Wer weiss das zuverlässig ?

Die Wort-Gewichtung ...

<meta name="keywords" content="Welt, Geburdstag, Suchmaschiene">
<title>Hallo Welt gestern war mein Geburdstag</title> und
<body><h1>Hallo Welt !</h1> I be happy to be endlich die Nummer fünf in der Suchmaschiene und ausserdem hatte ich Geburdstag. Auf meiner Party erzählten mir meine Freunde einen Haufen der besten Sprüche. Nebenbei verkaufe ich kostenlose sündteure Kurse an dumme die nicht schreiben können und verdiene mich dumm und am dämlichsten daran wovon ich mir morgen Akzien kaufe wenn die Akzienkurse niedrig sind.</body>

.. ist nach Schallhorn auch ein MUSS für gutes Ranking. Die spätere Suche nach "Kostenlose Suchmaschiene für die besten und dämlichsten Sprüche auf der Welt zum Geburdstag meiner Freunde" müsste eigentlich einen absoluten Volltreffer ergeben, ja sogar  nur "Akzienkurse" ist ein Volltreffer, da

1.) jede Menge Menschen Suchmaschine, Geburtstag oder Aktien falsch eintippen aber die Webmaster sich doch nie trauen würden Seiten mit Rechtschreibfehlern auszuliefern, schon gar nicht im title ! Googlern beschert das Keyword "Akzienkurse" genau vier Treffer, also eine Top-Ten Position mit einem einzigen Keyword !

2.) Viele Begriffe in vernünftiger Gewichtung vorkommen und ich

3.) tatsächlich Rechtschreibkurse anbieten könnte anstatt "Akzienkurse" da mich ja die richtigen gefunden haben :)

Ob und wie viele das so eintippen könnte man zudem analysieren lassen, wobei mir der schönste Volltreffer bei diesem böden Body-Text nichts bringen würde (click and back).

Jetzt müsste man nur noch rausfinden wie viele Menschen Aktienkurse mit z schreiben, aber ich vermute viele.

Wer von Euch hat Erfahrungswerte in dieser Richtung die er mitteilt ? Oder wandern solche Sachen nur in die Geheimnis-Schublade ? Liege ich richtig mit meiner These Keyword-Gewichtung ?

Robot spidert URI mit Frames oder nicht: Ist Schallhorns Behauptung richtig dass Frames das spidern generell verhindern oder ist diese Annahme veraltet ? Ist <meta name="robots" content="index, follow"> ausreichend ? Oder schreibt man´s besser anders bzw. juckt Mr. Robot diese Meta-Angabe(n) überhaupt ?

Sind Brücken-Seiten für die grossen (goog.., alta.., t-o..) etc. wirklich nicht mehr aktuell ? Man könnte doch auch die Brückenseite mit den wichtigsten Keys in Name als seriöse, informative Sitemap gestalten und dann per manuellem Link ... (Stichwort Only-Domain-Anmeldung). Die Doorway nicht als Sub-Domain sondern eigenständig !

Nun mein Drei-Punkte-Katalog Mr. Robot zufriedenzustellen. Ich würde gerne wissen wie weit ich damit falsch oder richtig liege. Angenommen ich möchte ein Forum so oft als möglich in die Top-10 bringen:

1.) Speichere ich jeden Forums-Artikel neben der DB als eigenständige HTML-Datei in ein Verzeichnis. <title> ist die Überschrift des Eintrages inclusive einigen der wichtigsten, thematisch passenden Keys aus dem Text. Ich filtere nachweislich häufig verwendete Keywords aus dem Text und schreibe damit <meta name="keywords" content="key, key, key"> (was nach Schallhorn nix mehr bringt wenn die Keywords nicht im Text vorkommen=übrigens MnM sehr sehr sinnvoll, der Sucher will ja thematisch brauchbare Ergebnisse sonst bringts ja nix, deshalb nehm ich sie mir aus dem Text und vergleiche sie mit der key-db, dann kommen sie auch vor und der Suchmaschinen-User findet dann auch die Infos die er sucht, was ihn zum verweilen einlädt)

2.) Erstelle meine index.htm als überwiegend textbasierte No-Frames-Sitemap ohne Schnickschnack oder Cookies, auf der in einem Link-Verzeichnis a) die Artikel verlinkt sind, b) durch ein Bannerprogramm viele gute Links auf andere gute Seiten gelegt sind (zusätzlich als reiner Text-Link ?), c.) die Wortgewichtung incl. interessanter, thematisch richtiger Keys stimmt und, d) sage ich Mr. Robot er soll den Links folgen und alle 8 Wochen mal wieder vorbeischauen falls er Zeit hat und nicht grade lässig am Tresen lehnt und Webmaster zur Vernunft bringt. Zusätzlich verwende ich meta DC-Angaben in jeder HTML.

3.) Wenn alles steht melde ich die Site bei den wichtigsten Suchmaschinen manuell an.

So, für heute ist meine Zeit um. Ich würd mich auf Eure Meinung und auf "wertvolle" Tipps freuen.

Grüsse Gustl

  1. Hallo,

    Ich kann Deine Theorien weder bestätigen noch widerlegen, nur eines kann ich mit Sicherheit sagen:

    Ich halte nichts vom Versuch, irgendetwas beim Schreiben des Markups bzw. des Inhalts exklusiv für bestimmte Suchspider zu tun. Ich gestalte meine Websites möglichst ohne Barrieren und achte darauf, dass der Client lediglich HTTP und HTML können muß, sonst nichts. Trennung von Struktur und Darstellung ist selbstverständlich, schon in eigenem Interesse.

    Extra Arrangements für Suchmaschinen lehne ich aus zwei Gründen ab:

    1.) Der Trick, der heute gut für Suchmaschinen ist, kann morgen schon wieder wertlos oder gar kontraproduktiv sein. Die Suchmaschinenbetreiber müssen dazu nur an ein paar Knöpfen drehen. Derartige Optimierungen sind also im besten Fall eine Sisyphusarbeit, im schlechtesten ein Eigentor.

    2.) Die Suchmaschinenbetreiber _wollen_ nicht, dass Websites für Suchmaschinen gemacht bzw. optimiert werden. Ist eine Website informativ und benutzbar für Menschen (wohlgemerkt: mit jeder denkbaren Clientsoftware), dann ist sie auch gut für Suchmaschinen.

    lg
    Martin Dunst

    --
    Do what I say, not what I do.
    --Tim Berners-Lee
  2. Jetzt müsste man nur noch rausfinden wie viele Menschen Aktienkurse mit z schreiben, aber ich vermute viele.

    Ich vermute eher wenige. Außerdem bieten einige Suchmaschinen eine automatische Rechtschreibkorrektur an.

    Robot spidert URI mit Frames oder nicht: Ist Schallhorns Behauptung richtig dass Frames das spidern generell verhindern oder ist diese Annahme veraltet ?

    Ich vermute schon, dass robots Frames spidern. Allerdings wird die Suchmaschine dann immer noch nicht auf den Extakten treffer verlinken (können) sondern entweder nur aufs Frameset oder auf die einzelne Frameseite ohne Frameset. unter anderem deshalb sind Frames sehr ungeeignet.

    Sind Brücken-Seiten für die grossen (goog.., alta.., t-o..) etc. wirklich nicht mehr aktuell ? Man könnte doch auch die Brückenseite mit den wichtigsten Keys in Name als seriöse, informative Sitemap gestalten und dann per manuellem Link ... (Stichwort Only-Domain-Anmeldung). Die Doorway nicht als Sub-Domain sondern eigenständig !

    Viele Suchmaschinen reagieren allergisch darauf, wenn die eine andere Seite bekommen als normale Benutzer. Die können das auch ganz einfach testen, indem die mal ausnahmsweise einen gewöhlichen User-Agenten wie den von Mozilla oder dem IE schicken.

    <meta name="keywords" content="key, key, key">

    Bringt meiner Meinung nach rein gar nichts, auch nicht wenn die keywords im Text vorkommen.

    2.) Erstelle meine index.htm als überwiegend textbasierte No-Frames-Sitemap ohne Schnickschnack oder Cookies, auf der in einem Link-Verzeichnis a) die Artikel verlinkt sind, b) durch ein Bannerprogramm viele gute Links auf andere gute Seiten gelegt sind (zusätzlich als reiner Text-Link ?), c.) die Wortgewichtung incl. interessanter, thematisch richtiger Keys stimmt und, d) sage ich Mr. Robot er soll den Links folgen und alle 8 Wochen mal wieder vorbeischauen falls er Zeit hat und nicht grade lässig am Tresen lehnt und Webmaster zur Vernunft bringt.

    Auch hier bezweifele ich, dass sich der Robot da unbedingt dran halten wird. Der Roboter wird eigentlich selbst erkennen, wie oft sich eine Seite ändert und wie wichtig diese ist, sodass er selbst eintscheinden kann wie oft er vorbei kommt.

    Zusätzlich verwende ich meta DC-Angaben in jeder HTML.

    Hier bezweifele ich den Nutzen. Meta-Angaben sind heutzutage m.E. sinnlos.

    3.) Wenn alles steht melde ich die Site bei den wichtigsten Suchmaschinen manuell an.

    Vermutlich ist es sinnvoller/auch sinnvoll in der Suchmaschine deine URL als Suchbegriff einzugeben oder versuchen nach Schlüsselwörtern mit der Suchmaschine auf deiner Seite zu suchen. Auch wenn am Anfang natürlich nichts gefunden wird, merkt die Suchmaschine so, dass deine Seie existiert und gespidert werden sollte.

    1. Hi Jonathan,

      Ich vermute eher wenige. Außerdem bieten einige Suchmaschinen eine automatische Rechtschreibkorrektur an.

      Ak"z"ien war ja auch nur ein Beispiel (das aber stimmt) Googele sagt doch nur "meinten Sie vielleicht", mahr kann man ja auch nicht machen.

      Ich vermute schon, dass robots Frames spidern. Allerdings wird die Suchmaschine dann immer noch nicht auf den Extakten treffer verlinken (können) sondern entweder nur aufs Frameset oder auf die einzelne Frameseite ohne Frameset. unter anderem deshalb sind Frames sehr ungeeignet.

      Also scheint "Text-Sitemap" als index.htm schon geeignet.

      Viele Suchmaschinen reagieren allergisch darauf, wenn die eine andere Seite bekommen als normale Benutzer.

      Fragt sich wie der Spider das erkennen will. Es sind ja dann 2 eigenständige Seiten die sich manuell miteinander verlinken, wie millionen andere Sites auch, die kann er doch nicht ausschliessen, wär doch fatal.

      1.) http://www.gedichte_zum_geburtstag_frauen_maenner_partyservice.x

      2.) http://www.feste_feiern_ etc.

      Diese eigenständigen Uris´s dann manuell auf bestimmte Ziele verlinken. Die Uri´s müssen natürlich "passenden" Inhalt haben.

      Für den Robot scheint doch die Adresse sehr hohe Priorität zu haben, google ich mal explizit nach bestimmten Seiten-Namen sind viele dann auch in den Top-10. Sinn machts nur keinen.

      <meta name="keywords" content="key, key, key">

      Bringt meiner Meinung nach rein gar nichts, auch nicht wenn die keywords im Text vorkommen.

      Das müsste man halt jetzt ganz genau wissen.

      Auch hier bezweifele ich, dass sich der Robot da unbedingt dran halten wird. Der Roboter wird eigentlich selbst erkennen, wie oft sich eine Seite ändert und wie wichtig diese ist, sodass er selbst eintscheinden kann wie oft er vorbei kommt.

      Ja das dachte ich auch dass wir nicht vorschreiben können wie oft der Robot vorbeikommt bei der Flut von Uris´s. Also ist "revisit-after" wohl sinnlos geworden.

      Zusätzlich verwende ich meta DC-Angaben in jeder HTML.
      Hier bezweifele ich den Nutzen. Meta-Angaben sind heutzutage m.E. sinnlos.

      Du meinst damit natürlich Robot-Anweisende ...

      3.) Wenn alles steht melde ich die Site bei den wichtigsten Suchmaschinen manuell an.

      Vermutlich ist es sinnvoller/auch sinnvoll in der Suchmaschine deine URL als Suchbegriff einzugeben oder versuchen nach Schlüsselwörtern mit der Suchmaschine auf deiner Seite zu suchen. Auch wenn am Anfang natürlich nichts gefunden wird, merkt die Suchmaschine so, dass deine Seie existiert und gespidert werden sollte.

      Hmmm, keine Ahnung :) Dann bau ich was, was meine seite jeden tag 1000 mal sucht, oder wie ? ?p="key"

      Auch die Aussage von Martin macht ein wenig mutlos, dass alle Arbeit nach einiger Zeit vielleicht nutzlos sein wird. Sollten wir aufgeben und weiterhin unsere Seiten "so vor sich hintümpeln lassen" ?

      Ich hab in meiner Firma mal was testen lassen. Ich suchte mir einige Seiten aus und gab meinen Leuten die Anweisung, das Thema dieser Seiten in den Suchmaschinen zu finden. Die URI hab ich nicht verraten. Dabei wurde deutlich, dass einige Seiten nur gefunden wurden, wenn der eingetippte Suchbegriff in der Adresse, im <title> und in den ersten Textzeilen gleichermassen vorkam. Und da war nur einmal ein Top-10 Treffer dabei. Andere Seiten suchten wir vergeblich unter den ersten 100, obwohl die selben Attribute drauf zutrafen. Die gefundenen Seiten waren (auch) Frame-Seiten. Einen Tag später haben wir den selben Test mit den selben Keys gemacht und wir hatten wieder total andere Ergebnisse.

      Ist also das gefunden werden in Suchmaschinen eine totale Zufallssache ? Dann sollten wir uns wirklich nicht mehr abmühen und einfach auf den Lottogewinn hoffen ...

      Der selbe Test mit grossen, bekannten Seiten: Nun ja, die wurden komischerweise an allen Tagen mit den selben Keys gefunden obwohl die Titel und der Text auch nicht mehr Keys hergab als bei den anderen.

      Also kein Zufallsspiel ! Aber wo ist der Unterschied ? Erkaufte Plätze oder doch was anderes ?

      Grüsse Gustl

      1. hi,

        Ich hab in meiner Firma mal was testen lassen. Ich suchte mir einige Seiten aus und gab meinen Leuten die Anweisung, das Thema dieser Seiten in den Suchmaschinen zu finden. Die URI hab ich nicht verraten. Dabei wurde deutlich, dass einige Seiten nur gefunden wurden, wenn der eingetippte Suchbegriff in der Adresse, im <title> und in den ersten Textzeilen gleichermassen vorkam. Und da war nur einmal ein Top-10 Treffer dabei. Andere Seiten suchten wir vergeblich unter den ersten 100, obwohl die selben Attribute drauf zutrafen.

        Ohne genauer zu wissen, welche Seiten du dir "rausgepickt" hast und nach welchen Kriterien du hast suchen lassen, kann man kaum beurteilen, ob das ein sinnvolles Testszenario war - vermuten würde ich aber eher nein.

        gruß,
        wahsaga

        --
        /voodoo.css:
        #GeorgeWBush { position:absolute; bottom:-6ft; }
        1. Ohne genauer zu wissen, welche Seiten du dir "rausgepickt" hast und nach welchen Kriterien du hast suchen lassen, kann man kaum beurteilen, ob das ein sinnvolles Testszenario war -

          Hi washaga, ich weiss sie nicht mehr genau ist schon ne weile her. Und die, die ich noch weiss mag ich nicht hier rein schreiben, bin nicht sicher ob sich das "gehört". Ich suchte mir mehrere Seiten, wahllos, in denen diese 3 Attribute zutrafen.

          vermuten würde ich aber eher nein.

          Aber warum vermutest Du dass dies kein sinnvolles Testszenario war, ohne die Fakten zu kennen ?

          Grüsse Gustl

  3. Tach.

    [...]
    Jetzt müsste man nur noch rausfinden wie viele Menschen Aktienkurse mit z schreiben, aber ich vermute viele.

    Wer von Euch hat Erfahrungswerte in dieser Richtung die er mitteilt ? Oder wandern solche Sachen nur in die Geheimnis-Schublade ? Liege ich richtig mit meiner These Keyword-Gewichtung ?

    Zumindest hat sich dieser typo spam schon vor einer ganzen Weile rumgesprochen.

    --
    Once is a mistake, twice is jazz.