Hallo T-Rex,
Technisch gesehen wird eine Tabelle zu groß, wenn der Primary-Key nicht mehr ausreicht.
An diese Grenze stößt Du vielleicht, wenn Du einen tinyint als Primary Key verwendest. Bei einem int-Key wird es schon mühsam, und im Zweifelsfall nimmst Du Bigint.
Danach kannst Du dich dann mit bis zu 1024 Tablespaces zu je 256TB totpartitionieren, bis InnoDB an seine technischen Grenzen stößt.
Und ich würde vermuten, dass diese Tabelle immer noch fix ist, solange die abgerufenen Datenmengen in Grenzen bleiben und die Indexe passen, so dass nicht versehentlich ein Tablescan anläuft.
Eine DB wird vor allem durch ungeschickte Querys oder unpassende Indexe langsam und nicht so sehr durch ihre Größe. Oder durch zu viele gleichzeitige Zugriffe, die sich auch mit Cache-Speicher nicht mehr erschlagen lassen. Aber dafür gibt's dann geclusterte Server. Mit Einwurf kleiner Münzen beim Serverhersteller ist hier vieles machbar. Irgendwie müssen Fratzenbuch und Google es ja schaffen, die ganze Welt zu bedienen.
Bei 4 Standorten würde ich jedenfalls nicht über eine Partitionierung nachdenken, nicht per DDL und schon gar nicht in der Software.
Rolf
sumpsi - posui - obstruxi