Hallo,
ich hab den Thread nicht so hundertprozentig mitverfolgt, das liegt
auch daran, dass du nicht wirklich ein stichhaltiges Argument
vorbringengen konntest, 500.000 Tabellen zu erzeugen, in denen,
von der Struktur her gesehen, dieselben Daten liegen.
Ohne aufgrund technischer Unvertrautheit wissen zu können, wie MySQL
Tabellendaten physikalisch speichert ... liegt das Problem am physikalischen
I/O? Am Ram-Verbrauch?
Wie sieht die Benutzung der 50M Datensätze aus? Würde die typische Abfrage
mit einer Partitionierung der Daten korrelieren?
Nenn mir doch einfach mal ein Kriterium für die Aufteilung in die 500k
verschiedenen Tabellen!
Wäre es nicht einfach mal sinnvoll über den Erwerb eines richtigen DBMS
nachzudenken? Wer 50 Mio Datensätze verwalten will tut das sicher nicht
als Hobby.