Hallo,
Das heißt, man versucht wirklich gnadenlos die gesuchten Begriffe möglichst häufig und entsprechend gemarkupped unterzubringen? Und das hilft erstmal, wenn ich auf meiner Seite 10 Mal Dresden-Süd und Hotel und Vollpension stehen habe, dann lande ich vor einer Seite, die das nur 3 Mal hat, vorausgesetzt jemand sucht nach "Dresden-Süd Hotel Vollpension"?
Ich sagte nicht, dass es funktioniert - ich schrieb, dass die das gemacht haben :)
Und auch wenn es funktioniert: das Ergebnis schreckt einen Besucher sicher mehr ab als es ihm hilft.
Naja, irgendwie hantieren ja auch die SEO-ler mit Erfahrungswerten.
Das habe ich nicht bestritten - aber dass sowas nicht gut gehen kann, sagt mir schon der Hausverstand.
Und offenbar scheint es ja einige zu reizen (vielleicht, weil das Bestandteil ihres Versprechens ist), einen Google-Algrhythmus so zu foppen, dass die Seite trotz Unlesbarkeit und Unusabilty recht weit oben im Ranking steht, so dass nur Menschen (Prüfer) dann in der Lage sind, die Spreu vom Weizen zu trennen.
Und genau das ist ja das Problem - Suchmaschinenoptimierung heisst nicht, dass man weit oben im Ranking steht. Wenn ich überall auf Platz 1 stehe aber ich bei 1.000 Besuchern 0 Conversions habe verzichte ich darauf - da nehme ich lieber die Lösung wo ich "irgendwo" gerankt werde und bei 50 Besuchern 1 Conversion bekomme.
Ich frag mich nur, warum Google-Bot nicht selbst schon stutzig wird, wenn ein Begriff 20 Mal auf einer Seite vorkommt und 10 h1-tags vorhanden sind etc.pp...;
Das wird er sicher - die Worthäufigkeit eines bestimmten Wortes im Verhältnis zu den anderen Wörtern und der Textlänge ist Google sicher hinlänglich bekannt - wenn es da Häufungen gibt wird das sicher besser bewertet, wenn es zu viel ist, wahrscheinlich sogar abgestraft.