Chris: Architektur- und Performance-Frage

Beitrag lesen

Hallo,

Und es bleibt die Frage: kann eine DB 50.000.000. Datensätze verkraften oder eher 500.000 Tabellen? Oder wie sieht die intelligente/alternative Lösung aus?

Gewinne ich nächsten Samstag im Lotto?

Du müsstest schon rauslassen, um welches DBMS es sich handelt. Es gibt welche, die stecken die Anzahl der Datensätze locker weg und es gibt bestimmt auch welche, die schaffen nur 65.000 (und ein paar) pro Tabelle...

Aber die Idee, alles auf einzelne Tabellen aufteilen zu können, ist ein Trugschluss, da diese auch verwaltet werden müssen.

Wenn jeder Detaildatensatz 4kByte hat, dann würde das 200GByte Nutzdaten ergeben, oder? Also muss auch die Hardware unter dem DBMS mitspielen und entsprechend viel Speicherkapazität adressieren können. Auf DOS 3.3 wirst Du das nicht hinbekommen ;-)

Und ein bisschen Hauptspeicher für die (schnelle) Verarbeitung von Indexen benötigst Du auch!

LG
Chris