Moin Moin!
oh man, ich habe mich die Tage so übelst in die einzelnen Prozesse und Anforderungen der Firma reingesteigert, dass ich alles andere vernachlässigt habe.
*g*
Geh mal davon aus, dass so ziemlich alles, was irgendwelche MS-Techniken oberhalb der Win32-API nutzt, in der Registry herumwühlt. ActiveX-Controls müssen in die Registry eingetragen werden, um nur ein Beispiel zu nennen. Es gibt diverse Tools, um die Änderungen an der Registry mitzuschneiden. Laß die mal mitlaufen, wenn ein Installer läuft und wenn das installierte Programm das erste mal startet.
Deshalb ist Linux viel cooler ne. Das meiste dort ist eigentlich in /etc drin plus noch kleine userbezogene Einstellungen in ~benutzer
Eben. rsync oder diff und patch, und alles wird gut. ;-)
[...] "xhost +" [...] XDMCP
Vielen Dank. Damit werde ich auch herum experimentieren. Sobald man da jede Software umlenken kann, könnte man die eine oder andere Software mal auf diese Weise abrufen.
Klar. Einziger Haken ist, dass X11 entwickelt wurde, bevor man über mehr Sound als ein monotones Piepsen aus dem eingebauten Lautsprecher auch nur nachgedacht hat. Für Remote Sound parallel zu X11 muß man noch ein klein wenig Extra-Aufwand treiben. Für Office-Anwendungen ist das aber eher unwichtig. Weiterführende Links
Ja an das hatte ich auch gedacht. Ist eben eine Kostenfrage, da jedoch der Server sowieso keine hohen Anforderungen erfüllen muss, könnte man zwei kleine billige (oder evtl. ein Altgerät) nehmen.
Wenn Du identische, billige HW kaufst, ist ein Verschieben von Anwendungen recht schmerzfrei.
Wobei, wie du bereits erwähnt hast, dann auch bei allen Geräten das RAID dazukommt.
In Software, mit relativ kleinen Platten.
Du wirst noch viel daran herumrechnen. Zwei große Server, die sich gegenseitig stützen können, aber jeweils viel Geld kosten, oder ein riesiger Haufen billiger Kisten, die in Summe auch nicht ganz billig sind.
Sollte ein Gerät mal ausfallen, könnte man (vorausgesetzt die Produkte liefern virtualisiert) die Virtualisierung dann auf den anderen Rechner schieben von der RAID oder Backuplatte der defekten Servers.
Der Witz an einem richtig edlen Server ist eben, dass der eben nur sehr selten ohne Vorwarnung ausfällt. Die Kisten haben oft zwei redundante Netzteile, die an zwei verschiedenen Phasen und an zwei getrennten USVs laufen. Ein Ausfall einer Phase bzw. eines Netzteils erzeugt eine Warnmeldung, aber keinen Ausfall. Ebenso Lüfter: 20 Lüfter in einem Server sind Wahnsinn, bis man einplant, dass davon auch mal der eine oder andere problemlos ausfallen darf. Das Spielchen kann man auch noch mit CPUs, Speicherriegeln, Festplatten-Controllern und sonstigen PCI-Karten spielen. Der Haken ist, dass viel Redundanz nicht nur sehr viel Energie kostet, sondern auch in der Anschaffung alles andere als billig ist.
Ja. Ich hatte aber auch schon erlebt, dass eine Virtualisierung nicht auf einen anderen Rechner gezogen werden konnte, weil die Virtualisierungssoftware dann meckerte, die CPU würde dies nicht unterstützen. PAE oder ähnliches. (Ja der Rechner hatte leider keine Unterstützung vom Prozessor aus)
Richtig, wenn Du das Verschieben von VMs einplanst, sollten die Host-Rechner möglichst ähnlich sein, am besten eineiige Zwillinge. Und wie gesagt, Hosts für VMs brauchen viel RAM und möglichst gute Unterstützung durch die CPU und den Chipsatz.
Ein Haken ist natürlich, dass echte Hardware das Verschieben auf andere Maschinen etwas erschwert. Und Du mußt natürlich auf jedem Mini-Server ein eigenes RAID und ein eigenes Backup installieren. Wobei Backup auch schlicht heißen kann, dass die Maschinen nachts alles per rsync auf den Fileserver schaffen, und nur der im Anschluß ein "richtiges" Backup auf externe Platten macht.
Ja, statt auf den Fileserver könnte man ja direkt auf die externe bzw. NAS-Platte das Backup schieben?
Das ist eine Frage der Bandbreite und der CPU-Leistung. Du hast ein zentrales NAS-System für Backup. Alle Server pumpen dort per rsync die Änderungen des Tages hin. Alle gleichzeitig und Dein NAS und Dein Netz stehen. Gerade die kleinen NAS-Systeme haben CPUs, die nicht besonders flott rechnen können, da reicht die Leistung gerade so, um Daten von der Platte auf das LAN und zurück zu schaufeln.
Letztlich hilft da nur ausprobieren oder gut schätzen. Oder Du holst Dir jemanden ins Haus, der keine Probleme hat, Dir fünf oder sechs Nullen für eine bombensichere Backup-Lösung aus den Rippen zu leiern.
Deswegen die Idee, den vermutlich etwas kräftigeren Fileserver zum Dämpfen dieses Effektes zu benutzen. Der könnte auch in einem Backup-Script erst einmal von den ganzen altgedienten Reste-Maschinen per rsync deren geänderte Daten einsammeln, schön eine nach der anderen, und danach seine eigenen Daten und die Kopien der Reste-Maschinen auf einen Schlag auf das NAS rsync-en.
Auf dem Fileserver hättest Du dann von jeder Reste-Maschine einen kompletten Dateibaum mit dem Stand der letzten Nacht, und auf dem NAS entsprechend alle Dateibäume inklusive Fileserver als Satz von Hardlink-Kopien für mehrere Tage (10..20, je nach Platz und Anforderungen).
Das geht prinzipiell natürlich auch von einem (Unix-basierten) NAS aus, bei dem Du Zugriff auf das Betriebssystem hast und ssh und rsync nutzen kannst.
Mit dem billisten Atom-Mainboard, einem billigen Gehäuse und einem kleinen RAM-Riegel bekommst Du einen Igel-Ersatz mit Thinstation per PXE für weit unter 200 Euro. Laufwerke brauchst Du in der Kiste nicht, denn PXE-Boot ist seit Jahren bei allen Mainboard serienmäßig vorhanden (muß ggf. nur aktiviert werden). Viel Stom braucht so ein "nackiger" Atom auch nicht, ich würde von unter 40W an der Steckdose ausgehen. Mit einem entsprechend kleinen Netzteil kann man nochmal das eine oder andere Watt einsparen.
Danke auch für das stichwort PXE. Richtig interessant. Ich bin bisher auch auf NComputing gestoßen. Soll anscheinend auch nicht all zu teuer sein.
Hat was von "Citrix für Arme". Oder auch VMware View.
Letztlich hast Du da einen Haufen Spezial-Hardware, der zusätzliche Mäuse, Tastaturen und Bildschirme an einen konventionellen PC klöppelt, entweder per USB oder per LAN.
Das geht mit ein paar Patches unter Linux auch ohne Spezial-Hardware, man stopft einfach einen PC mit Grafikkarten voll, hängt an jede Grafikkarte einen Monitor und legt davor je eine USB-Maus und eine USB-Tastatur. Der Rest ist etwas Trickserei beim Einrichten von X11, damit auf jedem Monitor eine völlig unabhängige X11-Instanz läuft, die sich jeweils nur eine Tastatur und nur eine Maus schnappt.
Der Nachteil ist natürlich offensichtlich. Mehrere Leute müssen sich eine CPU teilen. Mit Multi-Core-Prozessoren ist das nicht mehr ganz so schlimm, aber wenn Du 6 OpenOffice-Instanzen, 6x Firefox, 6x Thunderbird, und 6x eine fette Oberfläche wie Gnome oder KDE laufen läßt, kommt auch ein flotter Rechner ganz schön ins schwitzen. Und längst nicht jede Resource im PC ist 6x verfügbar, trotzt 6 oder 12 Cores hat so ein System nur zwei oder drei Speicher-Kanäle, eine Netzwerkkarte, eine oder zwei Festplatten, und einen einzigen Hauptschalter. Und in sechs Räume wirst Du so eine Kiste auch nicht verteilen können.
Den letzten Teil, und nur den letzten, kompensiert die Spezialdose mit Netzwerk-Anschluß.
Citrix erspart sich (je nach Setup) oft das ganze Desktop-Gebastel, stattdessen wird nur das Applikationsfenster auf den Desktop des lokalen Betriebssystems gepinselt, ganz ählich wie bei ssh X11 forwarding und dem völlig unsicheren "xhost +".
Thin Clients (auch selbstgestrickt mit Thinstation) schaffen die einzelnen Grafikkarten und die daran hängenden X11-Server samt Maus und Tastatur aus dem geteilten Rechner, die Arbeit, eine Hand voll Desktops zu verwalten, bleibt aber auf dem geteilten Rechner.
Etwas fettere Thin Clients (z.B. Igel, Thinstation bei entsprechender Konfiguration) haben einen lokal laufenden Desktop, auf den wie bei der Anwendungsverteilung à la Citrix nur die Anwendungen vom geteilten Rechner gepinselt werden.
Und ob diese drangebastelten Kisten in Summe billiger als einzelne Rechner sind, würde ich auch mal nachrechnen. Du darfst natürlich nicht vergessen, dass Du einen wirklich gut ausgestatteten PC für jeweils eine sehr kleine Zahl von Desktop-Döschen brauchst.
Ich hab am Wochenende im Verlauf einer anderen Diskussion mal rumgerechnet, einen Desktop ohne eigene Laufwerke, aber mit Maus, Tastatur, Monitor auf Atom-Basis kann man für ca. 150 Euro selbst zusammenbauen. Und einen Mini-Fileserver auf der selben Basis, mit zwei SATA-Platten, aber ohne Maus, Monitor, Tastatur, für rund 200 Euro. 6 Desktops, ein Server, und noch mal 30 Euro für einen Gigabit-Switch macht etwa 1130 Euro, mit ein paar Patch-Kabeln und Versand 1200 Euro.
Die NComputing-Geräte mit Ethernet listet Google für rund 200 Euro. Da bist Du bei 6 Arbeitsplätzen schon bei 1200 Euro, ohne Monitore, ohne Mäuse, ohne Tastaturen, und ohne den fetten PC, der das alles antreiben soll. Ein Switch ist da auch noch nicht drin.
Das überzeugt mich irgendwie nicht.
Irgendwie hatte ich noch eine einzige DMS Frage, bzw. zum Workflow, mir fällt gerade um die Uhrzeit jedoch die Frage ums verrecken nicht mehr ein :-)
Kommt noch ... -- nächstes Mal einfach irgendwo aufschreiben.
Alexander
Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".