Hi!
große Tabellen sind kein Problem.
Schlecht optimierte Zugriffe (fehlende Indexstrukturen etc.) schon eher.
Deine 20000er-Tabelle linear zu lesen ist eine Kleinigkeit.
Aber sie mit der 9000er-Tabelle zu JOINen, kann bei hinreichend ungeschickter Wahl der Tabellenattribute das Produkt der beiden Zeilenzahlen an Ergebnissen produzieren - da werden die Zahlen dann ziemlich schnell ziemlich groß.
Ja, das hatt ich auch schonmal gehört, da wohl tremporäre "tabellen" dann mit 20000*9000 DS erstellt werden.. oder wie war das? Ist es dann auf der anderen Seite besser eine Abfrage zu machen und dann in einer Schleife noch mehr Abfragen?
(der mit mySQL eine Suchmaschine betreibt, deren Kern-Tabelle 15 Millionen Datensätze enthält und jeden Morgen in ca. 30 Minuten komplett neu importiert und geindext wird)
Was denn für eine Suchmaschine? Woher kommen die Daten? Warum importierst Du immer alle und aktualisiertst nicht lediglich die geänderten? Was ist an "indexen" so ein Problem?
Womit machst Du das alles? Wahrscheinlich mit PERL, richtig? Bei PHP kann mir ehrlich gesagt nicht vorstellen, dass ein Script 30 Minuten läuft, auf gehosteten Servern wird sowas eh gekillt. Ist es wohl ein Problem mit PHP solche Daten zu verwalten?
Viele Grüße
Andreas