Hallo Michael,
Allerdings wird es dann große Teilbäume mit den immer
gleichen Schlüsselworten geben - die sind immerhin schnell
isoliert, aber ihre ganzen Knoten dann zu extrahieren und
als Ergebnis zurückzuliefern, das kann teuer werden
("JavaScript" etc.).
Das ist fuer mich eine Form der Degeneration.
Ein solcher Baum hat dann möglicherweise eine schlechte
mittlere Projektivität ... ein schlaues RDBMS kann
allerdings via ANALYZE TABLE sowohl diese Projektivität
als auch möglicherweise sogar eine blacklist der
schlechtesten Suchbegriffe separat zu dieser Tabelle
speichern und dies vom Query Optimizer berücksichtigen
lassen. Wenn dieser nämlich weiß, daß ein Suchbegriff 30%
der Tabelle liefern wird, dann sollte er dringend auf die
Verwendung von Indexzugriffen verzichten ... in diesem
Falle ist der full table scan wirklich schneller.
Das kann ich leider nicht beurteilen, dazu fehlen mir die
Kenntnisse.
Gruesse,
CK