Hi,
20 GB an Daten?
Beinhalten diese 20 GB auch BLOB-Daten?
Wie sieht denn die Verteilung dieser 20 GB über alle Tabellen hinweg aus?
Wie de/normalisiert sind denn die Daten?
Welchen Lebenszyklus/Lebensdauer haben die Daten, sprich liessen sich ältere Daten mit Erstellungsdatum < 2006 einfach in eine andere Tabelle auslagern? (Horizontale Partitionierung)
Hmmm, SELECT, DELETE, INSERT ...? Fehlt nur noch UPDATE, dann wäre die Runde komplett. :) Mal im Ernst, finde heraus, welche Tabellen statischer als andere sind und bringe das mit den Tabellengrössen in Verbindung.
Wenn ihr nur SELECTs mit dem PK als Suchargument macht, wie kommt ihr dann auf diesen PK Wert? Evt besteht dort bereits ausreichend Optimierungspotential.
Und Trigger sind ganz ganz dolle "evil" ... (nur mal so nebenbei)
Geht es euch rein um die Grösse und die Probleme, inkrementelle Sicherungen nicht machen zu können und habt ihr Leistungseinbrüche im täglichen Betrieb?
Sicher, dass es rein an der Grösse hängt, nicht eventuell an konkurrierenden Zugriffen und Locks auf der Datensatzebene?
Übrigens kann man auch mit anderen "richtigeren" ;) Datenbanksystemen total mässige Systeme zusammenkleistern, die schon bei 3 GB an Daten im Mehrbenutzerzugriff ins Schlucken kommmen. (Und selbst die kann man auch noch für ne knapp 7stellige Summe pro jahr verticken.)
Ich hoffe, ich konnte dir ein paar Anhaltspunkte für deine weitere tiefergehende Analyse liefern.
Gut NAcht, Frank