Moin dedlfix,
Das vorweg gesagt, ist es egal, ob es virtuelle oder physikalische Server sind. Bei virtueller Hardware hat man den Vorteil, dass man die Maschine „mal eben schnell“ umziehen kann auf einen neuen Server, aber das erkauft man sich durch zusätzliche Komplexität und weniger Angepasstheit. Physikalische Hardware hat den Vorteil, dass man sie genauer auf die Bedürfnisse abstimmen kann, aber den Nachteil, dass man gegen Hardware-Ausfälle Redundanz, also mehrere Server, benötigt.
Du plädierst zwar auch für virtuelle Hardware oder erachtest sie als ausreichend, […]
Nein, ich habe nicht für virtualisierte Hardware plädiert. Beides hat Vor- und Nachteile. In unserem Fall dürfte es wenig Unterschied machen.
Die zusätzliche Komplexität der virtuellen Umgebung hat doch der Hoster zu bewältigen, oder?
Das hilft uns aber nicht, wenn durch eine Lücke im Host-System das Gast-System kompromittiert werden konnte.
Welche wesentlichen Anpassungen könnten wir benötigen oder tun es bereits, ein zweite Netzwerkinterface vielleicht?
Naja, das kann man notfalls zur Laufzeit anpassen. Das ist ja das nette an virtualisierter Hardware. Aktuell halte ich das aber nicht für notwendig.
Aber sollte da keins dabei sein, mit dem wir leben können? Gentoo wird es ja vermutlich nicht wieder werden.
Ich würde immer Gentoo präferieren. Hier hat man die größte Freiheit. Im Notfall tut es auch ein Debian oder ein FreeBSD.
Die Redundanzen durch zusätzliche Server oder Ersatzteile sind bei den virtuellen Servern sicher eingepreist und wohl aus monetärer Sicht nicht sehr abweichend sein.
Bei Virtualisierung ist Redundanz idR nicht notwendig. Wenn wirklich der Host abraucht, dann zieht man auf einen anderen um – davon haben die Anbieter idR ein paar herumstehen. Das ist dann auch nur ein Disk-Image und eine Guest-Konfiguration kopieren auf den neuen Host. Je nach Storage-System nichtmal das.
Bei nur einer Maschine müssten also zumindest die jetzigen RAM- und Plattengrößen zusammengezählt werden, […]
Nein. Das kann man so nicht rechnen. Erstens benötigt das OS ja auch einiges an Platz und zweitens sind einige Daten doppelt vorhanden. Man muss wirklich sich beschränken auf die reinen Nutz-Daten und die dann zusammen rechnen.
Was den RAM angeht: mehr ist immer gut.
Administrativ hat man mit einer Maschine auch weniger Arbeit.
Im Prinzip richtig, aber man sollte im Auge behalten, dass bei Wachstum mehr als eine Kiste notwendig wird. Die Trennung von Datenbank-Server und der Rest ist der erste Optimierungs-Schritt. Deshalb schrieb ich extra dazu, dass bei _aktuellen_ Leistungs-Eckdaten eine Kiste ausreicht.
Wie sieht es mit Administrationshilfsmitteln aus. Kann ein Plesk, Webmin, etc. helfen oder steht es eher im Weg?
Ich würde von solchen Tools immer abraten. Nicht nur erzeugen sie einiges an Komplexität, sondern sie haben oft auch Probleme mit der Sicherheit und die generierte Konfiguration ist immer „kaputt“… Plex, Confixx und Co sind die WYSIWYG-Editoren der Server-Administration.
LG,
CK