Alexander (HH): De- oder Zentralität?

Beitrag lesen

Moin Moin!

Die Frage ist also, wie lang darf die Downtime sein, im Worst Case, wenn alle unbedingt arbeiten wollen und sich vor der EDV ein wütender Mob von Kunden und Kollegen mit brennenden Fackeln und Mistgabeln sammelt?

1-2 Tage wären kein Problem.

Optimist.

Bei einem Serverausfall hätte man durch SVN die Entwicklungsdateien ja noch lokal auf der Festplatte.

Aber weder commit noch rollback oder log funktionieren.

Buchhaltung macht man ja einmal im Monat oder Quartal (und die einzelnen Buchungen kann man auch mal aufschieben). Auf was man dann kein Zugriff hätte, wäre die DMS und die Groupware mit den Email-Funktionalitäten.

Und damit ruht der Laden.

(Aber, wenn die Emails ja nicht auf den Server heruntergezogen werden, könnte man evtl. über den Webmailer des Providers (1&1, Strato usw.) noch auf die Emails zugreifen.

Hilft Dir mit dem DMS leider gar nicht.

[...]

Gigabit-LAN. Optimal 2x, einmal Büro-LAN, einmal isoliertes Backup-LAN.

Um mehrere Netzwerke zu gestalten, sollte dies ja der Router oder der Switch erlauben. (Bsp. VLANs), um getrennte Netze aufzubauen. Außer, man nimmt mehrere Router/Switche.

Jein. Klar kann man mit gemanagten Switches oder ein paar Routern wunderbar getrennte Netze aufbauen. Das ist aber gar nicht das Hauptziel der zweiten Netzwerkkarte. Die soll Backup mit maximal möglicher Geschwindigkeit erlauben, ohne dass dadurch das "normale" LAN blockiert wird.

Ich mal mal was:

All-in-one:

PC PC PC Server
         |  |  |  |
 NAS----[  Switch  ]----Server
         |  |  |  |
         PC PC PC Router

Backup-Netz:

PC PC PC +-----Server-----+
         |  |  |  |                |
        [  Switch  ]----Server----[ Switch ]----NAS
         |  |  |  |
         PC PC PC Router

Bei der All-in-One-Variante drückt ein Server 1 GBit/s Backup-Daten zum NAS. Das sollte idealerweise den Switch nicht weiter beeindrucken. Aber es ist zwischen Server und Switch kein Bit/s Bandbreite mehr übrig, um die PCs oder den Router (d.h. die VPN-Clients) mit Daten zu versorgen. Auch Kopien von Server zu Server laufen durch den einen Switch und über die jeweils einzige Netzwerk-Verbindung und blockieren die Netzwerkverbindungen für die Clients.

Bei der Variante mit dem getrennten Backup-Netz im rechten Netz drückt einer der Server 1 GBit/s Daten zum NAS, hat aber auf der anderen Netzwerkkarte noch 1 GBit/s frei, um PCs und VPN-Clients hinter dem Router zu versorgen. Auch Server-zu-Server-Kopien durch das Backup-Netz lassen die Netzwerkkarten im Produktiv-Netz (linker Switch) völlig frei.

Außerdem mußt Du Dich bei der All-in-One-Variante zu 100% darauf verlassen, dass der Switch niemanden außer den Servern auf das NAS zugreifen läßt. Eine verkorkste Einstellung bei den VLANs und das Backup auf dem NAS ist tot. Bei der Variante mit zwei Switches dürfen die Switches gerne auch dumm und unmanaged und damit deutlich billiger sein, weil die Trennung der Netze per "Air Gap" erfolgt. Man kann im linken Netz anstellen was man will, man kommt nicht ins rechte Netz, so lange man keinen der Server sabotiert.

Was den Durchsatz angeht: SATA ist ursprünglich auf 1,5 GBit/s ausgelegt, aktuell sind 3 GBit/s (SATA-II), verkauft wird auch schon 6 GBit/s (SATA-6G). Aktuelle Platten können die 3 GBit/s nur in der Spitze auslasten, SSDs werden durch SATA-II teilweise ausgebremst. Auf einem Fileserver kommt allerdings noch das Betriebssystem dazu, dass häufig genutze Daten am liebsten im RAM hält. Und da reden wir locker über zweistellige GBit/s.

Privat habe ich mal mit einer alten USV gearbeitet, die hat dank schlapper Akkus mehr Ausfälle verursacht als verhindert. Also hoffe ich wieder auf guten Strom und robuste Dateisysteme, wie schon die Jahre davor.

Im Betrieb gibt es eine zentrale USV und einen Notstrom-Diesel, da muß ich mir über Stromausfälle keine Sorgen machen.

Einen Notstrom-Diesel haben wir leider nicht zur Verfügung. Ich werde mal schauen, ob die USV von der Anschaffung her teuer sind. Wenn nicht, versuche ich dies evtl. in die Infrastruktur aufzunehmen.

Zentrale USV ist garantiert teuer, die versorgt nämlich das ganze Haus oder wenigstens die wichtigen Teile des Hauses. Entweder legst Du die USV auf den Gesamtbedarf des Hauses aus, inklusive Kaffeemaschinen und Staubsauger, oder Du verlegst eine komplett getrennte, zweite Elektroinstallation für Geräte, die an die USV sollen. Und du brauchst für eine "hausgroße" USV natürlich einen entsprechend großen Raum, in dem die Wandler und Akkus untergebracht werden können.

Kleine USVs vor Server, Switch und NAS kosten je nach Marke, Technik, Leistung zwischen 65 € (Noname, 350 VA) und 1500 € (Marke, 3 kVA).

Als Server ist ein Atom definitiv zu langsam, wenn der Server mehr als nur kleiner File- *ODER* Mailserver sein soll. An reinen Büro-Arbeitsplätzen kann ein Atom genügen. Entwicklern gibt man besser flotte Kisten, siehe alte Postings.

Wenn es zwei Server Kisten werden, kann einer dann ein Atom-Server sein für groupware, der Permanent durchläuft, um Mails jederzeit und von überall auch abzurufen. Und der Leistungsstarke Server für SVN, VMs, DMS, Files nehme ich dann einen zweiten leistungsstarken Server. (Der Prinzipiell eigentlich auch nicht 24 Stunden laufen muss, sondern nur während einer definierten Arbeitszeit. (Zur Not aber üer WoL mal gestarten werden könnte, das wäre die Absicht von WoL). Aber, ob es für den Server gut ist, andauernt gestartet und ausgemacht zu werden, weiß ich nicht. Wobei es nicht schlimm ist, wenn er immer wieder mal an und ausgeht, anstatt dass er mal 1 Monat durchläuft und dann ausgeschaltet wird, bzwl. der Festplatten)

Würde ich nicht machen. Server ständig ausschalten ist eine blöde Idee, schon allein, weil Du ja auch irgendwann mal Backups schreiben mußt. Und Überstunden und Nachtschichten kommen auch immer mal vor. Ich glaube nicht, dass es Deine Kollegen lustig finden, wenn Du mitten in der Nachtschicht die Server automatisch abschalten läßt.

Wenn Du zwei Server kaufst, kauf die so dimensioniert, dass sich die Maschinen gegenseitig vertreten können. D.h. im Notfall schiebst Du alles auf eine Maschine, änderst die DNS-Einträge oder fügst auf dem Server 1 ein virtuelles Interface mit der IP-Adresse vom Server 2 ein, und reparierst den Server 2. Alle können weiter arbeiten, auch wenn unter Spitzenlast eine Anfrage oder ein Commit auch mal eine Sekunde länger dauert. Mit virtuellen Maschinen ist das noch einfacher, siehe alte Posts.

(Die IP der virtuellen Server hängt an der VM. Die Virtualisierungssoftware auf dem Host implementiert in Software eine Bridge zwischen der realen Netzwerkkarte des Hosts und den virtuellen in den VMs. Damit stöpselt man aus LAN-Sicht beim Verschieben nur die virtuellen Server an einen anderen Switch-Port.)

[...]
Der Gedanke war so etwas in der Art File Adaptor:

Das ist eine Migrationshilfe für Leute, die den Hauptteil ihrer Arbeit auf Fileservern liegen haben und nun langsam in ein DMS wechseln wollen.

Zitat aus der verlinkten Seite:

Mit dem File Adaptor binden Sie Ihre vorhandenen Dateisysteme transparent in agorum core ein. Dabei bleiben Ihre Daten dort wo sie sind (auf Ihren vorhandenen Dateiservern), können aber mit den meisten DMS Funktionen von agorum core benutzt werden.

Und genau das ist der Punkt: Die *meisten* DMS-Funktionen, aber eben nicht *alle*. Frag mal nach aktueller Volltext-Suche und Versionierung. Genau das wird sehr wahrscheinlich nicht funktionieren. Die Volltext-Suche könnte man notfalls noch über irgendwelche Notify-Mechanismen erschlagen (Index-Update, sobald eine Datei verändert wurde), aber Versionierung dürfte ziemlich aussichtslos sein. Schon allein, weil mittlerweile viele Programme automatisch alle X Minuten irgendwelche unqualifizierten Zwischenstände speichern.

Ich fände einen Bulk Import viel interessanter, mit dem auf einen Schlag ein ganzer Verzeichnisbaum 1:1 ins DMS übernommen wird, idealerweise mitsamt Meta-Daten (Datum, Verschlagwortung anhand der Verzeichnis-Namen, ...).

Alexander

--
Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".