Hallo, Thomas,
Gerade die Flut der Informationen macht es notwendig Meta-Angaben zu verwenden [...] Leider ist es so, dass einige Leute der Meinung sind, sie könnten diese Meta-Angaben nützen um ihre Seiten in Rankingslisten nach oben zu bringen, ohne dass ein entsprechender oder geeigneter Inhalt sich hinter den Meta-Angaben verbirgt.
Es ist wie immer ein "Spiel", wer ist schneller/geschickter, die
Erfinder von "cloaking" und anderen Techniken, oder die Suchmaschinenbetreiber, mit Indizierungs- und Auswertungstechniken?
Genau deshalb ist die von dir angesprochene Verarbeitung durch Maschinen nicht der Weisheit letzter Schluss. Bessere Seiten mit einer differenzierten Struktur und hochwertigen Metadaten verbessern die Situation nur einseitig, denn nicht umsonst werden andere Faktoren zu Rate gezogen, welche darüber entscheiden, ob eine Seite gefunden wird (bspw. Linkpopularität). Die Masse der Suchanfragen stellen allgemeinthematische Recherchen dar, bei denen es primär nicht darum geht, ob etwas gefunden wird, sondern darum, dass in den ersten Suchresultaten qualitativ hochwertige (d.h. informative) Seiten liegen. "Bessere Seiten", wie oben beschrieben, würden sich hingegen in erster Linie auf hochspezielle/konkrete Suchrecherchen positiv auswirken, deren Resultate meist Deep Links sind, für die Linkpopularität nur eine hintergründige Rolle spielt.
Die Ranking-Algorithmen können und werden immer getäuscht werden, deshalb setzt man bei Google auf die Synthese der Ergebnisse der AI und den Daten des von Menschen erstellten Verzeichnisses DMOZ/ODP. Während der Spider große Datenmengen durchsucht und mittels PageRank grob auswählt, kann alleinig die von Menschen gemachte Auswahl und Kategorisierung sichere Aussagen über die Qualität der Seite ermöglichen, indem es zusätzlich Metadaten über die Seite bereitstellt, welche für den Benutzer aufschlussreich sind.
Den Unterschied sieht man beispielsweise bei einem Vergleich der Google-Resultate mit den Suchresultaten von Diensten, welche zwar den Google-Index nutzen, jedoch unterschiedliche PageRank-Algorithmen zu verwenden scheinen und vor allem die Ergebnisse nicht mit dem DMOZ abgleichen (zum Beispiel google.yahoo.com).
Unter diesen Gesichtspunkten ist ein Zusammenspiel zwischen hochentwickelten maschinellen und redaktionellen "Ressourcen" das Patentrezept für eine erfolgreiche Findmaschine. In Anbetracht der Tatsache, dass wohl der Großteil des Webs aus für Suchmaschinen vergleichsweise irrelevanten Informationen besteht - ausgehend von den tatsächlich getätigten Suchanfragen -, erschöpft sich irgendwann der Nutzen, jede noch so unwichtige Seite in ein Verzeichnis aufzunehmen - für diese Seiten sind Metadaten und strukturelle Verbesserungen der Weg zum adäquaten Suchmaschinenrang, sofern denn Informationen vorhanden sind.
Mathias