Hallo allerseits,
meine User werden in Zukunft auf eine statische(!) Datenbank zugreifen, und zwar sehr oft (pro User mit Sicherheit mehr als 10 Zugriffe pro Minute). Es wird ein bisschen so sein wie Google Suggest: pro eingegebener Buchstabe eine Abfrage.
Die Haupttabelle selbst hat 6.000.000 Einträge, wird mit einigen weiteren Tabellen verknüpft und letztlich muss das Ergebnis (mit oft mehr also 10.000 Einträgen) auch noch sortiert werden um die relevantesten Einträge zu finden. Sprich: langsam. Zumindest nach allen bisherigen Tests. Gibt der User bspw. nur einen Buchstaben ein, sind in der Haupttabelle gleich mal (6.000.000 / 26 Buchstaben) Einträge betroffen.
Also muss ich das Ganze irgendwie optimieren. Anbieten wuerde sich dabei etwa eine konsistente Speicherung der Ergebnisse als Datei. Sucht dann jemand nach "Gnarf", wird erstmal geguckt, ob es nicht bereits eine Datei "Gnarf.xml" gibt. Wenn nicht, dann wird gesucht und die Datei erzeugt.
Ihr koennt euch ja aber vorstellen (Taschenrechner!) wie umfangreich dieses Caching ausfallen würde.
Würdet ihr das auch so machen?
Und vor allem: was müsste ich bedenken? Was sind die Fallstricke?
Danke für eure Hilfe,
Eddie
Old men and far travelers may lie with authority.