Hallo,
ist eine solche Aussage strenggenommen nicht mehr als ein Mythos.
und vermutlich ein zu widerlegender.
So habe ich gerade mal nach ein paar HTML-Tags und -Attributen gegoogled und (wie zu erwarten) festgestellt, daß nur Treffer ausgegeben werden, in denen diese Keywords auch als Text von einem Browser angezeigt werden. Gebe ich hingegen ein paar im Text befindliche Wörter einer Seite zusammen mit einem hier enthaltenen HTML-Tag ein, wird die Seite nicht gelistet.
Kann es sein, dass du etwas völlig anderes ansprichst? Natürlich bezieht Google das Markup eines HTML-Dokument selbst nicht in die Suche im dem Sinne ein, als der Code über die Suche findbar ist, sondern nur den Text des Dokuments. Wenn man z.B. <html lang="de"> in einem HTML-Dokument notiert, ist das Dokument freilich noch längst nicht unter den Suchbegriffen »html lang de« zu finden.
Die Frage ist, ob der Divisor bei der Errechnung der Keyword-Dichte die Länge des jeweiligen gesamten HTML-Codes, nicht die Länge des jeweiligen natürlichsprachigen Gesamttextes ist. Sprich, die Frage ist, ob das Verhältnis zwischen Markup (Rechnersprache) und natürlicher Sprache (und die ist suchrelevant) in einem Dokument Auswirkungen darauf hat.
Ein Beispiel: Bei schlechter CSS-Nutzung und entsprechendem nicht rationalisiertem Markup (hunderte font-Tags, für jede Kleinigkeit verschachtelte Tabellen usw.) kommt auf vergleichsweise wenig natürlichsprachigen Text vergleichsweise viel HTML-Markup (z.B. <p><font color="black"><font face="Arial,sans-serif">wort suchbegriff wort</font></font></p>). Bei CSS-Nutzung muss nicht soviel Markup im Dokument untergebracht werden, weil dieselben Formatierungen über zentrale Styleregeln gelöst werden (z.B. <p>bla suchbegriff bla</p>). Dementsprechend schlank ist das Dokument im Vergleich zu einem Dokument, dass denselben Inhalt enthält, zudem aber wie beschrieben viele font-Tags usw.
chlori hat nun behauptet, dass Google nicht den reinen Nettotext zur Berechnung der Keyword-Dichte verwendet - in beiden Beispielfällen »bla suchbegriff bla«, also ganz simpel zur Veranschaulichung 11 Zeichen geteilt durch 19 gleich 58% - sondern von der Länge des gesamten HTML-Code ausgeht.
Das wäre dann bei <p>bla suchbegriff bla</p> Pi mal Daumen 11 / 26 = 42%. Und bei <p><font color="black"><font face="Arial,sans-serif">wort suchbegriff wort</font></font></p> nur 11 / 92 = 12%. chlori sagt, dass Google den Anteil des Gesamtcodes im Dokument im Verhältnis zum reinen suchrelevanten Text für diese statistischen Berechnungen einbezieht. Die These ist, dass von zwei Dokumenten, die exakt denselben Textinhalt haben mit exakt derselben semantischen Auszeichnung, das eine aber zusätzlich (semantisch nicht relevantes) Markup enthält, dasjenige Dokument von Google als wichtiger bewertet wird, welches den Inhalt mit möglichst (quantitativ) wenig HTML auszeichnet. Wenn diese Annahmen stimmten und die so berechnete Keyword-Dichte von Bedeutung für den Rang wäre, hätte ein Dokument mit <p><font color="black"><font face="Arial,sans-serif">wort suchbegriff wort</font></font></p> also schlechtere Karten bei einer Suche nach »suchbegriff« als ein Dokument mit <p>bla suchbegriff bla</p>, weil 12% gegen 42% Keyword-Dichte stünde (vereinfacht).
Ich unterstelle Google daher einmal soviel intelligente Programmierung, daß "echte" HTML-Formatierungen vor einer Aufbereitung für den Index herausgefiltert werden und somit keine Rolle mehr spielen.
Dass der Code selbst nicht durchsuchbar ist, ist unbestritten, die Frage ist eben, ob auch zur Berechnung der Keyword-Dichte der Code vorher entfernt wird oder ob in die Berechnung einfließt, wieviel der HTML-Code selbst vom Dokument ausmacht. Meine Meinung ist dazu, dass diese Vorstellung widersinnig ist. Ich kenne weder Untersuchungen, die eine solche Annahme rechtfertigen, noch Gründe, wieso eine Suchmaschine so vorgehen sollte.
Mathias