Hallo Jürgen,
Es sind auf Erfahrung sehr vieler Leute begründete Angaben, gültig für Google, Fast und Inktomi, womit ca. 90% der Suchmaschinen nach Benutzerhäufigkeit abgedeckt wären. Selbstverständlich ist meine Aussage etwas pauschal, aber eine genauere Aussage wäre viel zu umfangreich. Tatsächlich lohnt es sich bei einer großen Seitenanzahl aus rein praktischen Gesichtspunkten momentan nicht mehr, jeder Seite eigene Metatags für die Suchmaschinen zu geben. Eine globale description macht durchaus noch Sinn, da diese nicht sehr aufwendig ist. Eine Suchmaschine, die den Keywords-Metatag noch auswertet wüßte ich momentan nicht, obwohl es da natürlich auch noch kleinere geben mag.
Allgemeingültige Aussagen gibt es hier ohnehin nicht. Das oben gesagte ist rein pragmatisch zu verstehen.
ok, im Prinzip hast Du Recht.
Aber: Ich rate dringend davon ab, sich von dem, was DIE GROSSEN Suchdienste machen, abhängig zu machen. Wenn man immer nur danach geht, was HEUTE IN ist, kann das MORGEN tödlich sein!
Der größte Fehler (und gutes Beispiel) ist für mich noch immer die Abhängigkeit großer Firmen von Microsoft und SAP.
Zu den Suchmaschinen: Die Tags sind nicht nur für diese da! Vielleicht gibt es ja Software, die das lokal bei Leuten handhabt. Ich finde diese Tags sehr sinnvoll und werde sie nach Möglichkeit auch weiter verwenden!