Micholee: De- oder Zentralität?

Hallo Leute,
bin heute auf http://www.stw.de/wir-ueber-uns.html gestoßen und auf folgenden Spruch gestoßen:
So viel Dezentralität wie möglich, so wenig Zentralität wie nötig: in diesem Gegensatz liegt eine Stärke des Steinbeis-Verbundes.

Bisher hatte ich eigentlich immer Zentralität verfolgt. (Für ein kleines Unternehmen (5 Mitarbeiter) für Webdesign und Grafikdesign). Mit dem Ziel, dass alle Daten zentral (nicht redundant) vorliegen, eine Ordnerstruktur, besser Austausch unter den Mitarbeitern, nur eine Stelle die gesichert/gebackuped werden muss...

Die Workstation haben dann ein Netzlaufwerk (von den zentralen Dateien - Filserver NAS) eingebunden, wo sie dann die benötigten Dateien anschauen/bearbeiten können). Die Benutzerrechte, wer das Netzlaufwerk einbinden darf, ist auf dem NAS eingestellt.

Da man in den nächsten Monaten jedoch auch Mobil (ohne am internen LAN verbunden zu sein) arbeiten will, muss ich mir Gedanken machen, wie man dies realisieren könnte. D.h., ich müsste dann den Spruch von oben beherzigen und dezentralität verfolgen, in dem alle Dateien von den Mitarbeitern zentral auf den Workstations (Notebooks) liegen. (Das hätte natürlich auch seine Vorteile wie Schnelligkeit...) Ist aber dann die Synchronisation nicht schwierig, wenn man an bestimmten Sachen als Team gemeinsam arbeitet?

Deshalb dachte ich mir anfangs, ob die Dateien weiterhin zentral liegen sollten, um dann Online über das Internet auf die Dateien zugreifen zu können.
AN SVN hatte ich auch gedacht. Die Dateien würden zentral auf dem Fileserver liegen und man würde mittels SVN sich eine Kopie auf den lokalen Rechner ziehen und könnte das immer wieder synchronisieren. (Wobei man eigentlich nicht von dem kompletten Fileserver mittels SVN ziehen würde, sondern nur bestimmte Bereiche/Ordner/Projekte. Denn es gibt auch Ordner, die nur für bestimmte Personen bestimmt sind oder auch andere Ordner, die zwar für alle zugänglich sind, aber nicht wirklich bearbeitet werden. Bsp. Tutorials, Bilder, Codes usw.

Könnte man in diesem Fall Tipps aussprechen oder wäre das doch eher zu speziell?

Grüße
M.

  1. Moin Moin!

    Du schmeißt da was durcheinander: Eine zentralistische EDV-Infrastruktur und das, naja, Social Network von stw.de.

    Beides ist gleichzeitig möglich, und völlig unabhängig voneinander.

    Eine zentralistische Infrastruktur ist nicht verkehrt, ein räumlich getrenntes Backup ist oft wünschenswert.

    Man kann natürlich auch eine eigentlich zentralistische Infrastruktur räumlich verteilen und für Replikation über die beteiligten Server sorgen. So ist man weniger anfällig für örtlich begrenzte Katastrophen (Flut, Brand, ...). Das wird aber sehr schnell sehr teuer und sehr aufwendig.

    Da man in den nächsten Monaten jedoch auch Mobil (ohne am internen LAN verbunden zu sein) arbeiten will, muss ich mir Gedanken machen, wie man dies realisieren könnte. D.h., ich müsste dann den Spruch von oben beherzigen und dezentralität verfolgen, in dem alle Dateien von den Mitarbeitern zentral auf den Workstations (Notebooks) liegen. (Das hätte natürlich auch seine Vorteile wie Schnelligkeit...) Ist aber dann die Synchronisation nicht schwierig, wenn man an bestimmten Sachen als Team gemeinsam arbeitet?

    VPN (oder minimal SSH-Tunnel), UMTS-Sticks, und weiterhin alles zentral halten. Idealerweise können die Leute GAR NICHTS auf die Laptops speichern, alles wird zwangsweise auf die zentralen Server geschrieben.

    Du glaubst gar nicht, wie oft Laptops im täglichen Kampf verrecken. Backups macht niemand freiwillig, und Festplatten-Rettungsdienste sind keine wirkliche Alternative. Ach ja, USB-Sticks und externe Festplatten sind in Sachen Datensicherheit eine einzige Katastrophe: Viren-Einfalltor und gerne einmal versehentlich irgendwo liegen gelassen. Natürlich mit wichtigen Projektdaten, natürlich gerade mit denen, die Top Secret sind.

    Komplette Schreibverweigerung wird kaum durchsetzbar sein. Vielleicht solltest Du darüber nachdenken, im Hintergrund auf jedem Laptop einen Backup-Dienst laufen zu lassen, der alle Änderungen per VPN / Tunnel auf Backup-Server in der Zentrale synchronisiert.

    AN SVN hatte ich auch gedacht.

    git ist so organisiert, dass man wirklich komplett getrennt vom Rest der Welt arbeiten kann. Wenn man dann wieder in der Zivilisation auftaucht, kann man seine Änderungen mit dem Rest der Welt abgleichen.

    Der feine Unterschied zu SVN ist, dass man diesen Abgleich machen kann, aber nicht muß. Damit kommst Du wieder an den Punkt, dass wichtige Daten nur auf dem Laptop lagen, der gerade im Zweitjob als Bremskeil für ein SUV vollkommen versagt hat. (Nein, das erfinde ich nicht. Der Ex-Kollege hat sich bitterlich beschwert, dass so ein "Scheiß Laptop" nicht einmal den Sturz vom Dach einer mehrere Tonnen schweren Potenzprothese und das anschließende Plattwalzen mit selbiger überlebt. Naja, Krawatten schnüren ja bekanntlich die Sauerstoffzufuhr zum Gehirn ab. In sofern ist das nachvollziehbar.)

    Bei SVN brauchst Du zwingend eine Verbindung zum SVN-Server für ein "commit", und nur den Server mußt Du wirklich sichern. Es sei denn, irgendein Trottel macht sein Ding am SVN vorbei oder hamstert tonnenweise Änderungen ohne ein einziges "commit".

    Alexander

    --
    Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
    1. Hey,

      Du schmeißt da was durcheinander: Eine zentralistische EDV-Infrastruktur und das, naja, Social Network von stw.de.

      oh man, jetzt habe ich mich noch mehr blamiert. Habe mich tatsächlich dort verlesen und dachte, die verfolgen eine dezentrale EDV-Infrastruktur.

      Man kann natürlich auch eine eigentlich zentralistische Infrastruktur räumlich verteilen und für Replikation über die beteiligten Server sorgen. So ist man weniger anfällig für örtlich begrenzte Katastrophen (Flut, Brand, ...). Das wird aber sehr schnell sehr teuer und sehr aufwendig.

      Man könnte ja einen zentralen Fileserver aufbauen der mir RAID 0 auf zwei Festplatten läuft. Dann könnte man ja sicherlich an einem anderen Gebäude nachts immer über das Firmennetzwerk (LAN, WLAN, Online) an eine NAS den Inhalt des Fileservers nochmals kopieren. (Dann wäre Flut und Einbruch zumindest etwas besser gesichert). (Wenn das Netzwerk, LAN, WLAN zum anderen Gebäude mal spinnt, dann gibt es ja im Normalfall auch keine Änderungen am zentralen Fileserver, bzw. der Backup wird ja eh immer nachts gemacht)

      Da man in den nächsten Monaten jedoch auch Mobil (ohne am internen LAN verbunden zu sein) arbeiten will, muss ich mir Gedanken machen, wie man dies realisieren könnte. D.h., ich müsste dann den Spruch von oben beherzigen und dezentralität verfolgen, in dem alle Dateien von den Mitarbeitern zentral auf den Workstations (Notebooks) liegen. (Das hätte natürlich auch seine Vorteile wie Schnelligkeit...) Ist aber dann die Synchronisation nicht schwierig, wenn man an bestimmten Sachen als Team gemeinsam arbeitet?

      VPN (oder minimal SSH-Tunnel), UMTS-Sticks, und weiterhin alles zentral halten. Idealerweise können die Leute GAR NICHTS auf die Laptops speichern, alles wird zwangsweise auf die zentralen Server geschrieben.

      Ja, VPN hört sich schon mal sehr gut an und die Daten wären weiterhin zentral. Dankeschön.

      git ist so organisiert, dass man wirklich komplett getrennt vom Rest der Welt arbeiten kann. Wenn man dann wieder in der Zivilisation auftaucht, kann man seine Änderungen mit dem Rest der Welt abgleichen.

      Ja das hört sich auch interessant an. Darauf war ich auch schon gestoßen. Wirkte aber noch etwas kompliziert auf mich, weil:

      Nehmen wir folgende einen kleinen Auszug der Ordnerstrukturen an:

      /Verwaltung/Dokumente/
      /Verwaltung/Buchhaltung
      /Verwaltungs/Emails (Ein Postfachordner für jeden Mitarbeiter)
      /Webdesign/Vorlagen
      /Webdesign/Projekte
      /Grafik/Bidlvorlagen
      /Grafik/Projekte

      Manche /Webdesign/Projekte sind für alle sichtbar. Manche jedoch nur für bestimmte Personen. Es gibt dann aber im gleichen /Webdesign Ordner Vorlagen, die genauso für jeden sichtbar sind.
      Wenn man nun die ganzen Ordner vom Wurzel als normales Laufwerk einbindet, kann man mit den Benutzerrechten ganz schön die Rechte regeln und hat dann den Standard Dateibrowser für die Ansicht. (Schön wäre natürlich eine DMS, wo man die Dateien mit Metadaten füttern kann, nur hat man nicht mehr schön den Standard Dateibrowser des Betriebssystems)

      Das SVN (oder auch GIT) würde ich ja nicht auf den kompletten Fileserver (vom Wurzelelement) anwenden, sondern ja nur für bestimmte Ordner (Bsp. /Webdesign/Projekte/kundeA_projekt)

      D.h., ich würde dann für verschiedene Ordner nur das SVN einsetzen, da es sicherlich kein Sinn macht, vom Wurzelelement, da es auch Ordner gibt, die für jeden eh zugänglich sind bzw. auch Ordner gibt, die sich nicht oft ändern und nur allgemeine Dokumente enthalten.

      Das Problem wäre aber sicherlich auch, wenn man SVN einsetzt für einen Bereich (Bsp. /Webdesign/Projekte/kundeA_projekt), dass man dieser Ordner über den Standard Dateibrowser ja nicht mehr einsehen/erreichen kann, da SVN (oder GIT) sicherlich nach seinem eigenen Schema/Formaten die Dateien abspeichern. (Es wird ja eh nur die Änderung gespeichert und Revisioniert)

      Bei SVN brauchst Du zwingend eine Verbindung zum SVN-Server für ein "commit", und nur den Server mußt Du wirklich sichern. Es sei denn, irgendein Trottel macht sein Ding am SVN vorbei oder hamstert tonnenweise Änderungen ohne ein einziges "commit".

      Ah okey, die Datei ist außerhalb vom SVN dann trotzdem normal zu erreichen. Dann müsste ich mir mal eine Strategie überlegen, und nach Vorteile/Nachteile und Risiken mal abwägen.

      Vielen Dank nochmals.
      Grüße

      1. Moin Moin!

        Man könnte ja einen zentralen Fileserver aufbauen der mir RAID 0 auf zwei Festplatten läuft.

        Fileserver auf RAID-0? Was hast Du für ein phantastisch schnelles LAN, dass Du auf ein RAID-0 zurückgreifen mußt?

        Normalerweise wählt man für Fileserver redundante RAID-Level (1, 5, 6) oder kombiniert RAIDs in RAIDs (10, 01, 50). RAID-0 nimmt man nur bei extremen Geschwindigkeitsanforderungen.

        Erwähnte ich, dass Fileserver eine Pest sind? Fileserver erlauben, dass jeder seine Daten völlig unstrukturiert und nahezu undurchsuchbar irgendwohin schmeißt. Vererbte Zugriffsrechte machen es dann für die Teams auch noch schwierig, an Dateien heranzukommen, die irgendjemand versehentlich oder absichtlich in einem privaten Verzeichnis verrammelt hat.

        Dann könnte man ja sicherlich an einem anderen Gebäude nachts immer über das Firmennetzwerk (LAN, WLAN, Online) an eine NAS den Inhalt des Fileservers nochmals kopieren. (Dann wäre Flut und Einbruch zumindest etwas besser gesichert).

        Sync über WLAN? Ohne weiteren Schutz?

        Du brauchst vermutlich ohnehin ein VPN, dann schiebe auch sowas über das VPN.

        (Wenn das Netzwerk, LAN, WLAN zum anderen Gebäude mal spinnt, dann gibt es ja im Normalfall auch keine Änderungen am zentralen Fileserver, bzw. der Backup wird ja eh immer nachts gemacht)

        Der Witz an einer gut redundant ausgeführten Infrastruktur ist, dass BELIEBIGE Teile ausfallen dürfen. Im Sinne von: Du gibst mir alle Schlüssel und Keycards, ich gehe in die Serverräume und ziehe wahllos ein paar Strom-, Netzwerk- und Datenkabel im Betrieb heraus, ohne dass irgendjemand etwas merkt (abgesehen vom Alarm auf den Management-Systemen). Das bedeutet, dass es für jeden Job mindestens zwei Geräte gibt, die automatisch und ohne Service-Einbußen beim Ausfall des einen Gerätes den Job des anderen übernehmen. Damit ist auch klar, dass sich die Clients nicht fest an eine Maschine binden dürfen, sondern an einen Service.

        git ist so organisiert, dass man wirklich komplett getrennt vom Rest der Welt arbeiten kann. Wenn man dann wieder in der Zivilisation auftaucht, kann man seine Änderungen mit dem Rest der Welt abgleichen.

        Ja das hört sich auch interessant an. Darauf war ich auch schon gestoßen. Wirkte aber noch etwas kompliziert auf mich, weil:

        Nehmen wir folgende einen kleinen Auszug der Ordnerstrukturen an:

        /Verwaltung/Dokumente/

        Alias "Allwissende Müllhalde". Ohne weitere Strukturvorgaben endest Du entweder mit einer Million Dateien in einem Verzeichnis, oder jeder Mitarbeiter macht sich seine eigene kleine Müllhalde.

        Dokumente gehören in ein Dokumentenmanagementsystem, nicht auf einen Fileserver.

        /Verwaltung/Buchhaltung

        Wann gehört eine Datei hierher, wann in /Verwaltung/Dokumente? Die Verzeichnisse scheinen sich inhaltlich zu überlappen. Keine saubere Struktur, das führt zu einem Ablage-Chaos.

        /Verwaltungs/Emails (Ein Postfachordner für jeden Mitarbeiter)

        Mails gehören nicht auf den Fileserver. Dafür gibt es IMAP, so kannst Du notfalls auch ohne den Standard-Mail-Client alternativ über einen Webmailer arbeiten (der natürlich nur per VPN erreichbar ist!). IMAP ermöglicht auch Dinge wie gemeinsame Ordner, die für alle Mitglieder eines Teams erreichbar sind.

        Und warum liegen die EMails für alle Mitarbeiter unter dem Ordner für die Verwaltung?

        /Webdesign/Vorlagen

        Read-Only, außer für wenige Auserwählte, die neue Vorlagen einstellen dürfen.

        /Webdesign/Projekte

        Ein Projekt beginnt vermutlich mit einer größeren Kopierorgie aus /Webdesign/Vorlagen?

        Und Fehler in Vorlagen muß man dann in allen Kopien manuell nachpflegen? Was vermutlich nie klappt.

        Ganz klarer Fall für SVN, git & Co.

        /Grafik/Bidlvorlagen
        /Grafik/Projekte

        Nochmal das gleiche.

        Manche /Webdesign/Projekte sind für alle sichtbar. Manche jedoch nur für bestimmte Personen. Es gibt dann aber im gleichen /Webdesign Ordner Vorlagen, die genauso für jeden sichtbar sind.

        SVN hat ein minimales Rechtesystem, in das man sich etwas reinlesen muß. GIT ist auf bedingungslose Zusammenarbeit ausgelegt, ob und wenn ja, welche Rechte man vergeben kann, mußt Du selbst herausfinden.

        Wo packst Du die Issues (Bugs, Feature-Requests, ...) hin? Intern und von Kunden? Fileserver und Mailserver sind beides ganz schlechte Ideen. Wenn Dir dazu nichts einfällt, sieh Dir Bugzilla und Trac an.

        Wenn man nun die ganzen Ordner vom Wurzel als normales Laufwerk einbindet, kann man mit den Benutzerrechten ganz schön die Rechte regeln und hat dann den Standard Dateibrowser für die Ansicht.

        Unter Windows per SMB / CIFS? Ja.

        Per NFS? Nein. Rechte im NFS kann man ziemlich entspannt aushebeln, wenn man ein System hat, auf dem man sich lokale Root-Rechte verschaffen und lokle Benutzer mit kollidierenden UIDs anlegen kann.

        Andere Netzwerk-Protokolle (wie AFS) beheben das Problem.

        (Schön wäre natürlich eine DMS, wo man die Dateien mit Metadaten füttern kann, nur hat man nicht mehr schön den Standard Dateibrowser des Betriebssystems)

        Doppelter Irrtum:
        1. Für Dokumente ist ein DMS eigentlich zwingend notwendig.
        2. DMS können sich durchaus in vorhandene Dateimanager einklinken. Unter Windows geht das so weit, dass sich das DMS auch in die Standard-Dialoge für Öffnen und Speichern einklinken kann. Für Office-Pakete gibt es ebenfalls Plugins, die das DMS nahtlos in die Arbeitsumgebung einbauen.

        Das SVN (oder auch GIT) würde ich ja nicht auf den kompletten Fileserver (vom Wurzelelement) anwenden, sondern ja nur für bestimmte Ordner (Bsp. /Webdesign/Projekte/kundeA_projekt)

        Nein, das SVN / git ist vom Fileserver komplett getrennt (auch wenn es auf der selben Maschine liegen kann). SVN und git haben eigene Protokolle (z.B. svn+ssh, svn über http(s)), um auf das Repository zuzugreifen. Die Dateien, aus denen das Repository besteht, sollten für Normalsterbliche nicht einmal sichtbar sein.

        Und in das SVN / git gehören minimal alle Entwicklungsprojekte.

        Die veränderten Arbeitsdateien jedes einzelnen Entwicklers und Code-Sklaven liegen in einer Sandbox in dessen Home-Verzeichnis (das für Backup-Zwecke durchaus auf einem Netz-Laufwerk liegen kann).

        D.h., ich würde dann für verschiedene Ordner nur das SVN einsetzen, da es sicherlich kein Sinn macht, vom Wurzelelement, da es auch Ordner gibt, die für jeden eh zugänglich sind bzw. auch Ordner gibt, die sich nicht oft ändern und nur allgemeine Dokumente enthalten.

        Das Problem wäre aber sicherlich auch, wenn man SVN einsetzt für einen Bereich (Bsp. /Webdesign/Projekte/kundeA_projekt), dass man dieser Ordner über den Standard Dateibrowser ja nicht mehr einsehen/erreichen kann,

        Warum sollte das nötig sein?

        Die Entwickler haben SVN / git, und der Rest hat dort nichts zu suchen.

        da SVN (oder GIT) sicherlich nach seinem eigenen Schema/Formaten die Dateien abspeichern. (Es wird ja eh nur die Änderung gespeichert und Revisioniert)

        Richtig erkannt.

        Für SVN und git gibt es diverse Frontends, mit denen man einen Read-Only-Zugriff auf das Repository bekommt, z.B. per Webbrowser.

        Der Stand im SVN ist aber nicht unbedingt interessant. Wenn Du Web-Projekte baust, hast Du einen Testserver, auf den per Knopfdruck ein "svn export" läuft, gefolgt von einem wie auch immer gearteten Deploy-Script. Dann kannst Du den aktuellen Stand auf dem Testserver beurteilen.

        Weitere Knöpfe (mit Zugriffsschutz) schieben einen Export auf den Staging-Server zur Qualitätssicherung, und auf den Produktionsserver. Auf Staging und Produktion hat kein Entwickler etwas verloren, dort wird nicht gecodet, nicht einmal gepatcht. Alle Änderungen werden aus den SVN / git per export herausgeschrieben.

        Bei SVN brauchst Du zwingend eine Verbindung zum SVN-Server für ein "commit", und nur den Server mußt Du wirklich sichern. Es sei denn, irgendein Trottel macht sein Ding am SVN vorbei oder hamstert tonnenweise Änderungen ohne ein einziges "commit".

        Ah okey, die Datei ist außerhalb vom SVN dann trotzdem normal zu erreichen.

        Nein. Wie kommst Du darauf?

        Alle un-"commit"-eten Änderungen liegen in der für andere nicht einsehbaren Sandbox eines jeden Entwicklers. Mit dem commit werden die Dateien ins Repository übertragen. Und mit einem export kann man Teile des Repository in ein stinknormales Verzeichnis exportieren, typischerweise für das Einspielen einer Test- oder Release-Version in die entsprechenden Server.

        Dann müsste ich mir mal eine Strategie überlegen, und nach Vorteile/Nachteile und Risiken mal abwägen.

        Du scheinst noch einige grundlegende Verständnisprobleme zu haben, was SVN & Co angeht. Lies Dich mal in das oben verlinkte SVN-Buch sein. git tickt etwas anders, aber nicht grundlegend anders.

        Vorher kannst Du nicht sinnvoll entscheiden.

        Alexander

        --
        Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
        1. Nabend,

          Fileserver auf RAID-0? Was hast Du für ein phantastisch schnelles LAN, dass Du auf ein RAID-0 zurückgreifen mußt?

          Ich habe Raid-0 mit Raid-1 verwechselt. (In Studienunterlagen hatte es wohl der Proff. vertauscht)
          RAID-1, also eine 1:1 Kopie auf dem Fileserver intern mit 2 Festplatten.

          Also hat der Fileserver 2 Festplatten, die gespiegelt werden. Und die Festplatte könnte man ggf. noch auf eine andere NAS-Festplatte in einem anderen Gebäude in bestimmten Intervallen kopieren.

          Erwähnte ich, dass Fileserver eine Pest sind?

          Du hast Recht. Man müsste die Mitarbeiter erst dazu bringen (Was äußerst schwierig ist) eine gemeinsame Struktur einzuhalten.

          Der Witz an einer gut redundant ausgeführten Infrastruktur ist, dass BELIEBIGE Teile ausfallen dürfen. Im Sinne von: Du gibst mir alle Schlüssel und Keycards, ich gehe in die Serverräume und ziehe wahllos ein paar Strom-, Netzwerk- und Datenkabel im Betrieb heraus, ohne dass irgendjemand etwas merkt (abgesehen vom Alarm auf den Management-Systemen). Das bedeutet, dass es für jeden Job mindestens zwei Geräte gibt, die automatisch und ohne Service-Einbußen beim Ausfall des einen Gerätes den Job des anderen übernehmen. Damit ist auch klar, dass sich die Clients nicht fest an eine Maschine binden dürfen, sondern an einen Service.

          Ja, der Service regelt dann die ganze Struktur dahinter. D.h., ein Service müsste zur Sicherheit dann auch an mehreren Stellen erreichbar sein, falls einer ausfällt. (Dann könnte auch unmittelbar das LAN-Kabel an der Workstation ausfallen, weswegen der Service nicht mehr erreichbar wäre. Wobei man ja hier wiederum zwei Netzwerkkarten und zwei LAN-Kabel nehmen könnte :-)) Man kann es extrem auslegen. (Aber desto mehr Komponenten man hat, desto mehr Wartung und Ausfallrisiko von einzelnen Teilen)
          Wobei es in unserem sehr kleinen Unternehmen nicht so von Bedeutung ist. (Ein Ausfall von 1-2 bzw. einen Tag wäre eigentlich fast verkraftbar, hauptsache man verliert die Daten nicht)

          Nehmen wir folgende einen kleinen Auszug der Ordnerstrukturen an:

          /Verwaltung/Dokumente/

          Alias "Allwissende Müllhalde". Ohne weitere Strukturvorgaben endest Du entweder mit einer Million Dateien in einem Verzeichnis, oder jeder Mitarbeiter macht sich seine eigene kleine Müllhalde.

          Dokumente gehören in ein Dokumentenmanagementsystem, nicht auf einen Fileserver.

          /Verwaltung/Buchhaltung

          Wann gehört eine Datei hierher, wann in /Verwaltung/Dokumente? Die Verzeichnisse scheinen sich inhaltlich zu überlappen. Keine saubere Struktur, das führt zu einem Ablage-Chaos.

          Da hast du Recht. Ohne DMS bzw. Metadaten wird man sehr schwierig eine gute Struktur hinkriegen. Wie ich in Erinnerung habe, sollen in Verwaltung/Buchhaltung alle buchhaltungsrelevanten Daten beinhaltet sein. In Verwaltung/Dokumente wären allgemeine Dokumente/Geschäftsdokumente/Briefe abgelegt.
          D.h., ein Brief an das Finanzamt könnte entweder in der Buchhaltung oder Verwaltung/Dokumente ablegen. Naja, da gibt es sicherlich viele unzählige Fälle, wo eine Ordnersturktur ganz schwierig wird. (Bsp. sollen Rechnungen in der Buchhaltung liegen oder lieber in den jeweiligen Projekten/Kunden bezogen)

          Und warum liegen die EMails für alle Mitarbeiter unter dem Ordner für die Verwaltung?

          Man wollte damals alle Dateien zentral an einer Stelle. Sprich, Thunderbird zieht die Emails runter. (Man hat weiterhin einen zentralen Ordner, welches gebackuped werden muss). Schwierig wird es, wenn man Dateianhänge hat, die man generell für alle zugänglich machen will. (Entweder könnte man die Email weiterleiten oder die Email teilen. Aber, es könnte gut möglich sein, dass man die Datei außerhalb des Emailclients auch erreichen will. Somit muss der Anhang eigentlich wieder in den Fileserver bzw. in die DMS)
          Es muss auf jeden Fall später auch eine gute Emailverwaltung her. (Eigentlich noch viel mehr, aber ich will den Rahmen des Threads nicht sprengen)

          Ein Projekt beginnt vermutlich mit einer größeren Kopierorgie aus /Webdesign/Vorlagen?

          Und Fehler in Vorlagen muß man dann in allen Kopien manuell nachpflegen? Was vermutlich nie klappt.

          Ganz klarer Fall für SVN, git & Co.

          /Grafik/Bidlvorlagen
          /Grafik/Projekte

          Nochmal das gleiche.

          Vorlagen also auch mit SVN. Das schaue ich mir dann an, wie aussieht die Bilder handzuhaben. (Ein Grafiker hat schon eine Menge Bilder (als Vorlagen, Inspirationen usw.) in einen Ordner reingeknallt)

          Manche /Webdesign/Projekte sind für alle sichtbar. Manche jedoch nur für bestimmte Personen. Es gibt dann aber im gleichen /Webdesign Ordner Vorlagen, die genauso für jeden sichtbar sind.

          SVN hat ein minimales Rechtesystem, in das man sich etwas reinlesen muß. GIT ist auf bedingungslose Zusammenarbeit ausgelegt, ob und wenn ja, welche Rechte man vergeben kann, mußt Du selbst herausfinden.

          Wo packst Du die Issues (Bugs, Feature-Requests, ...) hin? Intern und von Kunden? Fileserver und Mailserver sind beides ganz schlechte Ideen. Wenn Dir dazu nichts einfällt, sieh Dir Bugzilla und Trac an.

          Vielen Dank. Issues wurden immer per Email, Telefon, Notizen geklärt und versucht abzuarbeiten. So ein Issuetracker ist natürlich sehr fein. Da werde ich mich auf jeden Fall auch einlesen. (Desto mehr Software, desto mehr Accounts und Rechtesysteme muss man pflegen, wie es aussieht. Manche Komponenten kann man dann jedoch sicher aus einem Pool(LDAP...) oder irgendwelchen Ticketszeugs auslesen. (Single-Sign-On). Aber wie gesagt, die restlichen Softwarekomponenten wie Email, Issue usw. würde den Rahmen dieses Threads um einiges sprengen. Da muss ich in Ruhe mal eine Ist-Erhebung und Ist-Analyse machen und dann in Ruhe die Anforderungen definieren, da es (wie du sicherlich auch bemekt hast) es sich hier um ein kleines (noch funktionierendes) Chaos handelt.

          Wenn man nun die ganzen Ordner vom Wurzel als normales Laufwerk einbindet, kann man mit den Benutzerrechten ganz schön die Rechte regeln und hat dann den Standard Dateibrowser für die Ansicht.

          Unter Windows per SMB / CIFS? Ja.

          Per NFS? Nein. Rechte im NFS kann man ziemlich entspannt aushebeln, wenn man ein System hat, auf dem man sich lokale Root-Rechte verschaffen und lokle Benutzer mit kollidierenden UIDs anlegen kann.

          Andere Netzwerk-Protokolle (wie AFS) beheben das Problem.

          Ja. Da jetzt im unteren Bereich des Threads jedoch SVN für die Entwicklungsprojekte (Codes (Webdesign), Grafiker usw.) und im oberen Bereich eine DMS, müsste ich wie bereits erwähnt, das Projekt De- oder Zentralität auf sämtliche Softwarekomponenten ausweiten und eine gute Infrastruktur erstellen. Dazu gehört die Emailverwaltung (Groupware, Buchhaltung/Frakturierung (Fast schon ERP. Hier sollten mehrere Mitarbeiter Angebote/Rechnungen erstellen können), Issuetracker oder eine CRM...

          (Schön wäre natürlich eine DMS, wo man die Dateien mit Metadaten füttern kann, nur hat man nicht mehr schön den Standard Dateibrowser des Betriebssystems)

          Doppelter Irrtum:

          1. Für Dokumente ist ein DMS eigentlich zwingend notwendig.
          2. DMS können sich durchaus in vorhandene Dateimanager einklinken. Unter Windows geht das so weit, dass sich das DMS auch in die Standard-Dialoge für Öffnen und Speichern einklinken kann. Für Office-Pakete gibt es ebenfalls Plugins, die das DMS nahtlos in die Arbeitsumgebung einbauen.

          Ich werde mal recherchieren, welche Umgebung es für Windows (7) als auch für Linux (Ubuntu) gibt, die sich gut integrieren lassen. (Die dann eventuell von außen erreichbar sind). Habe zwar schon einige DMS angeschaut, diese müsste ich dann aber testen und weiterhin im Kopf behalten, dass immer mehr Software (wie oben bereits erwähnt) gepflegt werden müssen. (Der Groupware-Hersteller bietet Aufgaben-Management, der DMS-Hersteller wiederum auch, (sicherlich auch, die Groupware und DMS etwas vereinen), usw. usw. Da werde ich mich nach der Analyse hinhocken und recherchieren.

          Die veränderten Arbeitsdateien jedes einzelnen Entwicklers und Code-Sklaven liegen in einer Sandbox in dessen Home-Verzeichnis (das für Backup-Zwecke durchaus auf einem Netz-Laufwerk liegen kann).

          Das Repository sollte ja von der Maschine selber gesichert werden.

          Für SVN und git gibt es diverse Frontends, mit denen man einen Read-Only-Zugriff auf das Repository bekommt, z.B. per Webbrowser.

          Zugriff über Webbrowser hört sich sehr gut an. (Da könnte man Groupware, Issue, DMS usw. evtl. dort vereinen). In den Workflow muss man dann noch die Buchhaltung/Frakturierung gut einbringen. (Evtl. habe ich noch andere Kleinigkeiten vergessen, die ich analysieren werde)

          Ah okey, die Datei ist außerhalb vom SVN dann trotzdem normal zu erreichen.

          Nein. Wie kommst Du darauf?

          Ich hatte mich verlesen (Kommt leider in letzter zu oft vor). Ich dachte, das Repository liegt nicht im eigenen Format/Schema vor, weswegen es von außen (auch ohne commit) beschreibbar wäre und somit zum Chaos führen würde.

          Du scheinst noch einige grundlegende Verständnisprobleme zu haben, was SVN & Co angeht. Lies Dich mal in das oben verlinkte SVN-Buch sein. git tickt etwas anders, aber nicht grundlegend anders.

          Auf jeden Fall, es fehlen noch gravierende Verständnisprobleme. Ich möchte mich aber bei dir nochmals sehr sehr bedanken für die Anregungen und Tipps. Ich wurde so gut in verschiedene Richtungen gelenkt und habe auch Einblick in andere Problemstellungen erhalten. Das ist echt sehr sehr viel Wert.

          Grüße
          M.

          1. Moin Moin!

            RAID-1

            Auf lange Zeit etwas verschwenderisch mit dem Platz. Höhere RAID-Level bringen mehr nutzbare Plattenkapazität. Dazu habe ich schon viel geschrieben, bemühe mal die Archivsuche. Kurz: Software RAID-5 für Daten, Software RAID 1 für das System.

            Also hat der Fileserver 2 Festplatten, die gespiegelt werden. Und die Festplatte könnte man ggf. noch auf eine andere NAS-Festplatte in einem anderen Gebäude in bestimmten Intervallen kopieren.

            Jau, das klingt ansatzweise nach einem Plan. rsync kennst Du? Das ist dafür ideal.

            Erwähnte ich, dass Fileserver eine Pest sind?

            Du hast Recht. Man müsste die Mitarbeiter erst dazu bringen (Was äußerst schwierig ist) eine gemeinsame Struktur einzuhalten.

            Und vor allem hast Du keine brauchbare Suche über Fileserver. Gegen beides hilft ein Dokumentenmanagementsystem. Je nach DMS kannst Du da auch ganze Arbeitsabläufe unterbringen, bei denen ein Dokument vom einen zum anderen weitergereicht wird.

            Der Witz an einer gut redundant ausgeführten Infrastruktur ist, dass BELIEBIGE Teile ausfallen dürfen. [...]

            Ja, der Service regelt dann die ganze Struktur dahinter. D.h., ein Service müsste zur Sicherheit dann auch an mehreren Stellen erreichbar sein, falls einer ausfällt.

            (Dann könnte auch unmittelbar das LAN-Kabel an der Workstation ausfallen, weswegen der Service nicht mehr erreichbar wäre. Wobei man ja hier wiederum zwei Netzwerkkarten und zwei LAN-Kabel nehmen könnte :-))

            Hmmm, theoretisch ja. Aber eine Workstation ist idealerweise komplett austauschbar (Image-kompatible Systeme, keine Benutzerdaten auf der lokalen Platte), so dass ein betroffener Kollege einfach auf den nächsten freien Platz wechselt, und ein Supporter die kaputte Kiste entweder mit einem neuen Image bespielt oder stumpf gegen eine vorbereitete Reserve-Maschine tauscht.

            desto mehr Komponenten man hat, desto mehr Wartung und Ausfallrisiko

            Der Witz ist, dass man das Ausfallrisiko mit einplant. Wenn alles redundant ausgelegt ist, stört der Ausfall nicht. Der Ausfall startet nur den Routine-Workflow, ein defektes Teil auszutauschen, ggf. beim Hersteller zu reklamieren, und für neuen Ersatz zu sorgen.

            Wobei es in unserem sehr kleinen Unternehmen nicht so von Bedeutung ist. (Ein Ausfall von 1-2 bzw. einen Tag wäre eigentlich fast verkraftbar, hauptsache man verliert die Daten nicht)

            Richtig. Deswegen baut man in der Regel keine 100% redundante Infrastruktur. Nur die wirklich wichtigen Systeme hat man doppelt, wenn auch nicht zwingend beide gleichzeitig online.

            VMware ESX ist da ein sehr angenehmes System, das zwar etwas Performance kostet, aber recht schmerzfrei erlaubt, virtuelle Maschinen (Fileserver, Mailserver, SVN-Server, Datenbank-Server) zwischen verschiedenen Rechnern hin und her zu schubsen. So kann man fast alle Dienste auf einige wenige leistungsfähige Maschinen packen, und bei Problemen einfach verschieben. Durch die Virtualisierung ist man sogar recht unabhängig von der realen Hardware.

            [...]

            Ohne DMS bzw. Metadaten wird man sehr schwierig eine gute Struktur hinkriegen. [....] (Bsp. sollen Rechnungen in der Buchhaltung liegen oder lieber in den jeweiligen Projekten/Kunden bezogen)

            Ein (gutes) DMS kann Aliase für Dokumente anlegen, so erscheint ein Dokument, was in beide Strukturen paßt, in beiden Verzeichnissen.

            Man wollte damals alle Dateien zentral an einer Stelle. Sprich, Thunderbird zieht die Emails runter. [...]

            Dummer Ansatz. Besser: IMAP-Server, siehe vorheriges Posting.

            Es muss auf jeden Fall später auch eine gute Emailverwaltung her. (Eigentlich noch viel mehr, aber ich will den Rahmen des Threads nicht sprengen)

            Och, keine Sorge, das Forum hält eine Menge Text aus. (Irgendwann kommt meine Lieblingsmeldung: "Fehler -- Sie sind wohl etwas geschwätzig?")

            Vorlagen also auch mit SVN.

            Ja. Lustigerweise ist Kopieren in SVN (svn cp) fast kostenlos. SVN speichert nur Unterschiede, daher muß SVN nur neue Meta-Daten speichern.

            Das schaue ich mir dann an, wie aussieht die Bilder handzuhaben.

            Das ist nicht so schön wie Sourcecode. SVN kann mit Binaries umgehen, aber "svn diff" nörgelt immer nur rum,. In einigen SVN-Web-Frontends kann man etwas herumpatchen, und sich z.B. für Bilder einen visuellen Diff basteln. Das ist aber alles andere als trivial.

            (Ein Grafiker hat schon eine Menge Bilder (als Vorlagen, Inspirationen usw.) in einen Ordner reingeknallt)

            Bilder-Datenbank benutzen?

            Wo packst Du die Issues (Bugs, Feature-Requests, ...) hin?

            Vielen Dank. Issues wurden immer per Email, Telefon, Notizen geklärt und versucht abzuarbeiten. So ein Issuetracker ist natürlich sehr fein.

            Ich halte so etwas für zwingend notwendig für jede Art von Software-Entwicklung. Allein schon, weil jeder Fehler so einen eindeutigen Bezeichner bekommt.

            Da werde ich mich auf jeden Fall auch einlesen. (Desto mehr Software, desto mehr Accounts und Rechtesysteme muss man pflegen, wie es aussieht. Manche Komponenten kann man dann jedoch sicher aus einem Pool(LDAP...) oder irgendwelchen Ticketszeugs auslesen. (Single-Sign-On).

            LDAP ist ein guter Plan. Linux kann sich mit PAM an LDAP andocken, viele Web-Anwendungen ebenfalls, und Microsofts Active Directory ist unter anderem ein häßlich getarntes LDAP. Anhänger der reinen Linux-Lehre werden sicherlich mit den Zähnen knirschen, wenn sie sich beim Login an einem AD-Server anmelden, aber es funktioniert. Umgekehrt kannst Du natürlich auch Linux zum Herren aller Systeme machen, und Windows-Kisten per Samba andocken. Lizenzmäßig ist das definitiv billiger. Samba kann einen AD-Server noch nicht 100% ersetzen, wohl aber einen klassischen NT4-Domain Controller. Das reicht oft schon.

            [...] da es (wie du sicherlich auch bemekt hast) es sich hier um ein kleines (noch funktionierendes) Chaos handelt.

            Oh ja, und es wächst von Tag zu Tag, bis irgendwann niemand mehr durchblickt.

            Dokumentiere Deine Recherche. Dokumentiere Deine Planung. Dokumentiere vor allem die Umsetzung. Und bitte, dokumentiere elektronisch in einem möglichst leicht lesbaren, offenen Format (LaTeX, Text, HTML, POD), und halte die Dokumentation aktuell. LaTeX, Text, HTML und POD kann man wunderbar in SVN bzw. git einpflegen und hat so ganz automatisch eine Versionierung der Dokumentation, inklusive Änderungskommentaren.

            (Übrigens: In commit-Kommentare gehört nicht, WAS man geändert hat, denn das kann man per svn diff jederzeit leicht herausfinden. Sondern es gehört herein, WARUM und WIE man etwas geändert hat. Betroffene Issue-Nummern sollte man möglichst auch erwähnen.)

            Mich nervt es ganz fürchterlich, dass mein Chef immer behauptet, sein 30 Jahre alte Gebastel sei dokumentiert. Ist es. Nur leider ist es nicht auf dem aktuellen Stand, weil die Dokumentation aus hunderten (kein Witz!) Aktenordnern besteht, die mehrere Regalmeter füllen und deren Inhalt niemand durchblickt und niemand aktualisiert. Das Ergebnis sind sehr viele, absolut unnötig verbrannte Arbeitsstunden jede Woche, weil man das Rad ewig neu erfindet, Fehler immer wieder neu sucht, und Strukturen und Formate immer wieder neu analysieren muß.

            Ja. Da jetzt im unteren Bereich des Threads jedoch SVN für die Entwicklungsprojekte (Codes (Webdesign), Grafiker usw.) und im oberen Bereich eine DMS, müsste ich wie bereits erwähnt, das Projekt De- oder Zentralität auf sämtliche Softwarekomponenten ausweiten und eine gute Infrastruktur erstellen. Dazu gehört die Emailverwaltung (Groupware, Buchhaltung/Frakturierung (Fast schon ERP. Hier sollten mehrere Mitarbeiter Angebote/Rechnungen erstellen können), Issuetracker oder eine CRM...

            Viel Arbeit. Dazu noch im laufenden Betrieb, und man muß es auch noch den Kollegen verkaufen. ("Das haben wir doch immer schon so gemacht, warum sollen wir das jetzt anders machen?")

            (Schön wäre natürlich eine DMS, wo man die Dateien mit Metadaten füttern kann, nur hat man nicht mehr schön den Standard Dateibrowser des Betriebssystems)

            Doppelter Irrtum:

            [...]

            Ich werde mal recherchieren, welche Umgebung es für Windows (7) als auch für Linux (Ubuntu) gibt, die sich gut integrieren lassen.

            (Die dann eventuell von außen erreichbar sind).

            VPN. Immer.

            Benutzt Du ein einheitliches Office-Paket? Mit Linux im Haus bleiben da eigentlich nur OpenOffice und LibreOffice übrig. Insbesondere, wenn Du den Grafikern auch noch Macs gibst.

            Zugriff über Webbrowser hört sich sehr gut an. [...]

            Richtig, Du wirst ein Intranet aufbauen. Webmailer paßt auch in die Runde. Fang vielleicht damit als "Einstiegsdroge" an. Ein kleiner, relativ harmloser Webserver, der erst einmal eine einheitliche Startseite für alle Leute im Unternehmen bringt. Denk Dir einen guten Namen dafür aus, und trag den ins lokale DNS ein. intranet.mycompany.lan ist ein doofer Name. Wenn Dir nichts besseres einfällt, nimm den Namen des Maskottchens.

            Ein paar Links auf der Startseite führen dann zu weiteren Systemen, die Du nach und nach aufbaust.

            Ein trivialer, aber nützlicher Dienst ist ein Short URL Service, gerade für größere Anwendungen. Bring den Kollegen bei, diesen Dienst zu nutzen. "go/bugs" in die Adresszeile des Browsers getippt wird automatisch zu http://go/bugs erweitert, der (virtuelle) Webserver go leitet dann auf http://bugzilla.mycompany.lan/bugzilla/ weiter. "go/test" bringt Dich zum Test-Webserver der Entwickler. "go/tel" und "go/phone" bringen Dich zum Telefonbuch (notfalls erst einmal eine lange, statische Tabelle, ggf. mit etwas jQuery gepimpt. "go/help", "go/support", "go/faq" bringt dich zum Support. FAQ-Liste, Support-Chat-Applet, was auch immer Dir einfällt. "go/time" springt zur Zeiterfassung, "go/docs" zum DMS, "go/svn" zum SVN-Frontend, "go/mail" zum Webmailer, "go/travel" bringt Dich zum Reisebüro mit dem Du besonders günstige Tarife vereinbart hast. "go/where" liefert eine Liste aller "magischen" Begriffe, die man hinter "go/" eingeben kann. Und so weiter, und so weiter.

            Das funktioniert auch von unterwegs per VPN-Tunnel oder SSH-Socks-Proxy.

            [...]

            Ich hatte mich verlesen (Kommt leider in letzter zu oft vor).

            Unkonzentriert? Mach mal Urlaub. Oder wenigstens regelmäßige Pausen. Lauf einmal ums Haus, mit dem Telefon und dem Handy auf dem Schreibtisch. Und vermeide 16-Stunden-Arbeitstage. Das bringt auf Dauer mehr Schaden als nutzen, nicht nur für das Unternehmen, sondern auch für Deine Gesundheit.

            [...] Ich möchte mich aber bei dir nochmals sehr sehr bedanken für die Anregungen und Tipps. Ich wurde so gut in verschiedene Richtungen gelenkt und habe auch Einblick in andere Problemstellungen erhalten. Das ist echt sehr sehr viel Wert.

            de nada

            Alexander

            --
            Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
            1. [latex]Mae  govannen![/latex]

              Mich nervt es ganz fürchterlich, dass mein Chef immer behauptet, sein 30 Jahre alte Gebastel sei dokumentiert. Ist es. Nur leider ist es nicht auf dem aktuellen Stand, weil die Dokumentation aus hunderten (kein Witz!) Aktenordnern besteht, die mehrere Regalmeter füllen und deren Inhalt niemand durchblickt und niemand aktualisiert. Das Ergebnis sind sehr viele, absolut unnötig verbrannte Arbeitsstunden jede Woche, weil man das Rad ewig neu erfindet, Fehler immer wieder neu sucht, und Strukturen und Formate immer wieder neu analysieren muß.

              Und sobald man sich halbwegs eingearbeitet hat und denkt, daß man nun das grobe Konzept durchschaut, kommen die Kollegen und gratulieren zum Ruhestand ^^

              Stur lächeln und winken, Männer!
              Kai

              --
              Dank Hixies Idiotenbande geschieht grade eben wieder ein Umdenken
              in Richtung "Mess up the Web".(suit)
              SelfHTML-Forum-Stylesheet
              1. Moin Moin!

                Mich nervt es ganz fürchterlich, dass mein Chef immer behauptet, sein 30 Jahre alte Gebastel sei dokumentiert. [...]

                Und sobald man sich halbwegs eingearbeitet hat und denkt, daß man nun das grobe Konzept durchschaut, kommen die Kollegen und gratulieren zum Ruhestand ^^

                Welch süßer Traum ... ;-)

                Alexander

                --
                Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
            2. Hi,

              Auf lange Zeit etwas verschwenderisch mit dem Platz. Höhere RAID-Level bringen mehr nutzbare Plattenkapazität. Dazu habe ich schon viel geschrieben, bemühe mal die Archivsuche. Kurz: Software RAID-5 für Daten, Software RAID 1 für das System.

              Ich habe mir ein paar Beiträge bereits durchgelesen und werde mich die Tage hier etwas vertiefen.

              Dann würde das in etwa grob in diese Richtung laufen. Ein zentraler (betriebsinterner) Server für Files, SVN, usw.

              Betriebssystem Linux: Debian, openSUSE, Ubuntu...

              HDD1 80GB: BS
              HDD2 80GB: SW-RAID-1 mit HDD1, um das Betriebssystem zu kopieren
              HDD3-5 jeweils 500GB: SW-RAID-5 für Daten (Files, SVN-Repo-Backup, DMS-Repo)

              Für das System braucht man ja nicht wirklich große Platten. Da würden sogar zwei schnelle 32GB SSD-Platten genügen.

              Groupware mit Email, IssueTracker wird ja auf einem gehosteten Server laufen.

              Jau, das klingt ansatzweise nach einem Plan. rsync kennst Du? Das ist dafür ideal.

              Ja, rsync hatte ich oft gehört. Da arbeite ich mich auch ein. NAS müsste dann jedoch theoretisch 1TBgroß sein, da die Daten auf drei RAID-5-Platten gespeichert wurden. Abzüglich Paritätsplatte = 1TB.

              Übersichtshalber habe ich die restlichen Kommentare gelöscht. Aber ich will trotzdem erwähnen, dass du bei Allem Recht hast.

              VMware ESX ist da ein sehr angenehmes System, das zwar etwas Performance kostet, aber recht schmerzfrei erlaubt, virtuelle Maschinen (Fileserver, Mailserver, SVN-Server, Datenbank-Server) zwischen verschiedenen Rechnern hin und her zu schubsen. So kann man fast alle Dienste auf einige wenige leistungsfähige Maschinen packen, und bei Problemen einfach verschieben. Durch die Virtualisierung ist man sogar recht unabhängig von der realen Hardware.

              Ja, vielleicht könnte man im obigen Server unter Linux paar virtuelle Maschinen für verschiedene Zwecke installieren und darin auch die Daten und Dokumente speichern. Hin und her veschieben über mehrere Maschinen käme bei uns eh nicht in Frage, da nur ein kleiner zentraler Server vorhanden wäre. (Bei größeren Firmen macht es natürlich Sinn, die Rechenleistung so zu verteilen, dass alles ausgeglichen ist)

              Bei SW-Raid könnte man dann sicherlich dann nur solche Bereiche (nur die virtuelle Maschine auf eine andere Festplatte kopieren)

              Och, keine Sorge, das Forum hält eine Menge Text aus. (Irgendwann kommt meine Lieblingsmeldung: "Fehler -- Sie sind wohl etwas geschwätzig?")

              Cool. Ich vermute aber, dass dieses Thema dir auch irgendwie Freude bereitet? (Gut, sonst würdest du eh nicht antworten.) Es ist aber immer aufs Neue aufregend, wenn man eine Lösung findet.

              (Ein Grafiker hat schon eine Menge Bilder (als Vorlagen, Inspirationen usw.) in einen Ordner reingeknallt)

              Bilder-Datenbank benutzen?

              Ja, Adobe stellt mit Bridge ein gutes Tool bereit. Die Daten liegen zwar auf dem Fileserver, mit Bridge kann man jedoch die Bilder dort noch mit Metadaten, Sternen und sonstigen Kommentaren füttern.

              Viel Arbeit. Dazu noch im laufenden Betrieb, und man muß es auch noch den Kollegen verkaufen. ("Das haben wir doch immer schon so gemacht, warum sollen wir das jetzt anders machen?")

              *gg

              Benutzt Du ein einheitliches Office-Paket? Mit Linux im Haus bleiben da eigentlich nur OpenOffice und LibreOffice übrig. Insbesondere, wenn Du den Grafikern auch noch Macs gibst.

              Wir haben auf allen Linux-Rechnern OpenOffice und in Windows-Kisten sowohl OpenOffice und Office 2007.

              Richtig, Du wirst ein Intranet aufbauen. Webmailer paßt auch in die Runde. Fang vielleicht damit als "Einstiegsdroge" an. Ein kleiner, relativ harmloser Webserver, der erst einmal eine einheitliche Startseite für alle Leute im Unternehmen bringt. Denk Dir einen guten Namen dafür aus, und trag den ins lokale DNS ein. intranet.mycompany.lan ist ein doofer Name. Wenn Dir nichts besseres einfällt, nimm den Namen des Maskottchens.

              Ein paar Links auf der Startseite führen dann zu weiteren Systemen, die Du nach und nach aufbaust.

              Ein trivialer, aber nützlicher Dienst ist ein Short URL Service, gerade für größere Anwendungen. Bring den Kollegen bei, diesen Dienst zu nutzen. "go/bugs" in die Adresszeile des Browsers getippt wird automatisch zu http://go/bugs erweitert, der (virtuelle) Webserver go leitet dann auf http://bugzilla.mycompany.lan/bugzilla/ weiter. "go/test" bringt Dich zum Test-Webserver der Entwickler. "go/tel" und "go/phone" bringen Dich zum Telefonbuch (notfalls erst einmal eine lange, statische Tabelle, ggf. mit etwas jQuery gepimpt. "go/help", "go/support", "go/faq" bringt dich zum Support. FAQ-Liste, Support-Chat-Applet, was auch immer Dir einfällt. "go/time" springt zur Zeiterfassung, "go/docs" zum DMS, "go/svn" zum SVN-Frontend, "go/mail" zum Webmailer, "go/travel" bringt Dich zum Reisebüro mit dem Du besonders günstige Tarife vereinbart hast. "go/where" liefert eine Liste aller "magischen" Begriffe, die man hinter "go/" eingeben kann. Und so weiter, und so weiter.

              Das funktioniert auch von unterwegs per VPN-Tunnel oder SSH-Socks-Proxy.

              [...]

              Das hört sich sehr schön an. Wenn das naher auch funktioniert, könnte man stolz auf sich sein. Bis dahin muss ich mich aber noch in einige Themen einlesen. Die erste Schwierigkeit für mich wäre auf Anhieb oben, dass man für alle Teilbereiche (Telefonbuch, DMS, Webmailer, Bugzilla) ein Account hat. Aber hier hatten wir ja bereits LDAP erwähnt. Wie das zu realisieren wäre, schaue ich mir dann an, inwieweit man das integriert.
              (Man hatte mir auch mal Sharepoint als Tipp genannt gehabt, damit habe ich auch keinerlei Erfahrungen. Ich denke aber, dass die Lizenzkosten hier weitaus höher wären, bzw. alles dann zu sehr Microsoft-lastig, indem man zu sehr an die Produkte gebunden ist)

              Den Webmailer würdest aber nicht intern auf dem betriebsinternen Server laufen lassen ne, sondern auf einem externen (schnelleren) gehosteten Server?

              Dürfte ich dich eigentlich noch etwas anderen Fragen, wenn ich schon so einen kompetenten Fachmann vor mir habe.
              In der Ist-Erhebung habe ich auch gesehen, dass eine Buchhaltungssoftware vorhanden ist, (Buchhaltungssoftware mit Warenwirtschaft, Inventar, Frakturierung (Angebote, Rechnungen...) usw), welche auf einem Workstation mit Windows installiert ist, an dem eine Person arbeitet. (Wenn nun andere Personen ein Angebot oder eine Rechnung erstellt haben wollen, müssen sie bei dieser Person abklopfen und ihn beauftragen, die zu tun. (Bzw. selber an den Rechner heran). (Also hätten die anderen kurz Zugang zu den Emails usw. Gut, man vertraut sich zwar und kennt sich gut, da die Firma sehr klein ist, trotzdem ist das nicht schön und unwirtschaftlich)

              Wie macht man dies eigentlich bei größeren Firmen. Hier frakturiert man (dann auch speziell zuständige Personen) sicherlich pro Kostenstelle und führt das dann später alle Kostenstellen zusammen. Wie handhaben es nun kleinere Firmen, bei der mehrere Personen die Buchhaltung oder die Frakturierung übernehmen könnten?. Von einem Lehrer hatte ich genannt bekommen, dass ich mir ERP-Systeme anschauen soll, in denen Buchhaltung integriert sei. In den ERP-Systemem, die ich auf die schnelle betrachtet habe, sehe ich aber mehr Warenwirtschaft, Analysen statt die Geschäftsbuchhaltung (Geschäftsvorfälle) und Frakturierung. (Hier muss ich mich noch einlesen. Oft stoße ich auf Apache OFBiz.)
              Wäre ich mit ERP auf dem richtigen Weg oder eine Standardsoftware (ala Lexware, Wiso usw.), die irgendwie mandant- bzw. netzwerkfähig wären?

              Ich hatte mich verlesen (Kommt leider in letzter zu oft vor).

              Unkonzentriert? Mach mal Urlaub. Oder wenigstens regelmäßige Pausen. Lauf einmal ums Haus, mit dem Telefon und dem Handy auf dem Schreibtisch. Und vermeide 16-Stunden-Arbeitstage. Das bringt auf Dauer mehr Schaden als nutzen, nicht nur für das Unternehmen, sondern auch für Deine Gesundheit.

              Ja, derzeit lastet alles auf mich. Ich werde aber nach der Ist-Erhebung um viel Zeit bitten und versuche auch meine Zeit sinnvoll einzuteilen, mit der Hoffnung, dass niemand meckert, warum das so langsam vorangeht :-)

              [...] Ich möchte mich aber bei dir nochmals sehr sehr bedanken für die Anregungen und Tipps. Ich wurde so gut in verschiedene Richtungen gelenkt und habe auch Einblick in andere Problemstellungen erhalten. Das ist echt sehr sehr viel Wert.

              de nada

              :-)))))

              Grüße

              1. Dann würde das in etwa grob in diese Richtung laufen. Ein zentraler (betriebsinterner) Server für Files, SVN, usw.

                Betriebssystem Linux: Debian, openSUSE, Ubuntu...

                HDD1 80GB: BS
                HDD2 80GB: SW-RAID-1 mit HDD1, um das Betriebssystem zu kopieren
                HDD3-5 jeweils 500GB: SW-RAID-5 für Daten (Files, SVN-Repo-Backup, DMS-Repo)

                Für das System braucht man ja nicht wirklich große Platten. Da würden sogar zwei schnelle 32GB SSD-Platten genügen.

                Ja, die Idee, ist nicht ganz so gut mit den Raids, wenn ich schon mehrere Platten habe, da mit Software-RAID ja viel möglich ist, wie ich von deinen älteren Postings gelesen habe:

                Lieber 3-4 HDD's. Jede Festplatte hat zwei oder mehrere Partitionen. Eine ca. 10-20GB große Partition auf allen Festplatten, um mit RAID-1 das System zu sichern. In der zweiten Partition würden dann die Daten mit RAID-5 gesichert werden. (Würde dicke ausreichen, wenn man bedenkt, dass noch auf einem NAS noch Backups gezogen werden).

                Gesamtes Datenvolumen denke ich, wären in ca. einem Jahr etwa 100-200GB (Das meiste wären wohl die Bilder von den Grafikern)

                Bevor ich jedoch versuche nun Lösüngen für die Hardware, bzw. RAID-System zu suchen, sollte ich nicht allzuviel Zeit hier investieren und den Plan nach der Ist-Erhebung und Ist-Analyse voranführen und die Anforderungen für die verschiedenen Softwareprodukte definieren und dann ganz zum Schluss auf die IT-Infrastruktur eingehen :-)

              2. Moin Moin!

                HDD1 80GB: BS HDD2 80GB: SW-RAID-1 mit HDD1, um das Betriebssystem zu kopieren HDD3-5 jeweils 500GB: SW-RAID-5 für Daten (Files, SVN-Repo-Backup, DMS-Repo)

                Für das System braucht man ja nicht wirklich große Platten. Da würden sogar zwei schnelle 32GB SSD-Platten genügen.

                Zu teuer und nicht wirklich sinnvoll. SSDs sterben leise und überraschend, und das bißchen mehr Performance brauchst Du in aller Regel nicht. Beim Server ist es vollkommen egal, ob der in 30 Sekunden oder in fünf Minuten bootet, denn der Server läuft Tag und Nacht. Danach hilft Dir viel RAM wesentlich mehr als eine schnelle Platte, denn das kann das Betriebssystem nach aktuellem Bedarf zwischen Buffer Cache (sprich: Platten-Cache) und Anwendungen aufteilen. In der Regel wird fast das gesamte freie RAM als Buffer Cache benutzt.

                Groupware mit Email, IssueTracker wird ja auf einem gehosteten Server laufen.

                Warum willst Du interne Daten ins Internet stellen?

                Gerade der (interne) Issue-Tracker gehört in ein geschützes Netz, und ehrlich gesagt möchte ich auch nicht meine Firmenmails irgendwo im Internet rumspuken sehen.

                Bugzilla und Trac sind ziemlich blödensicher installierbar; oft bringen die Distributionen sogar schon fertige Pakete mit. Da gibt es also kaum einen Grund, einen gehosteten Server zu benutzen.

                Für die Groupware sollte ähnliches gelten.

                Für den Zugriff auf Groupware und Issue-Tracker hast Du das VPN; weltweit erreichbar, wo auch immer man sich per analoger Telefonleitung, ISDN, DSL, GPRS, EDGE, UMTS, LTE ins Internet einwählen kann.

                Jau, das klingt ansatzweise nach einem Plan. rsync kennst Du? Das ist dafür ideal.

                Ja, rsync hatte ich oft gehört. Da arbeite ich mich auch ein. NAS müsste dann jedoch theoretisch 1TBgroß sein, da die Daten auf drei RAID-5-Platten gespeichert wurden. Abzüglich Paritätsplatte = 1TB.

                Richtig.

                Du kannst aber statt des NAS noch eine weitere Maschine aufstellen, wieder mit einem RAID aus billigen, relativ kleinen Platten. Die arbeitet dann im Regelfall nur als NAS, im Katastrophenfall kannst Du aber stumpf das NAS zum Hauptserver erklären.

                Oder aber Du nutzt ein NAS, das selbständig aus drei bis fünf kleinen Platten ein geeignet großes RAID-5 baut.

                Wenn Du beim Backup noch etwas weiter gehst (und dazu kann ich nur raten), bekommst Du ein quasi-inkrementelles Backup, mit dem Du einige Tage in die Vergangenheit gehen kannst, ohne dass Du wesentlich mehr Platz auf dem Backup-Medium brauchst. Such-Stichwort: rsync-Backup, auch dazu habe ich schon einiges geschrieben, siehe Archiv.

                Ich würde ohne weiter ins Detail zu gehen dazu raten, das Backup-Medium etwa 30% größer als die zu sichernde RAID-Netto-Kapazität zu wählen, und 10 Tage zu sichern. Damit bin ich bislang ganz gut gefahren.

                VMware ESX [...]

                Ja, vielleicht könnte man im obigen Server unter Linux paar virtuelle Maschinen für verschiedene Zwecke installieren und darin auch die Daten und Dokumente speichern. Hin und her veschieben über mehrere Maschinen käme bei uns eh nicht in Frage, da nur ein kleiner zentraler Server vorhanden wäre. (Bei größeren Firmen macht es natürlich Sinn, die Rechenleistung so zu verteilen, dass alles ausgeglichen ist)

                Virtuelle Maschinen brauchen VIEL RAM. Je mehr, desto besser. Du willst also ein 64-Bit-System aufbauen. Einzelne VMs dürfen auch schmerzfrei mit 32 Bit laufen. Die typischen RAM-Anforderungen jeder einzelnen, mehr oder weniger dauernd VM solltest Du durch echtes RAM im Host decken können. Wenn Du also permanent 6 VMs laufen läßt, die je 1 GByte RAM zugeteilt bekommen, sollte der Host mindestens 8 GByte RAM haben (2 GByte für den Host selbst).

                Bei der CPU-Auswahl solltest Du darauf achten, dass die CPU Virtualisierungs-Beschleuniger hat (VT-x, AMD-V, Nested Page Tables). AMD geht da offenbar etwas großzügiger mit um, Intel schaltet diese Funktionen nur bei teuren CPUs und teuren Chipsätzen frei.

                Statt VMware ESX kannst Du auch eine kleinere Virtualisierung nehmen, die nicht direkt auf der Hardware aufsetzt, sondern auf einem normalen Betriebssystem. Ich habe lange mit VMware Server gearbeitet, habe jetzt aber zu VirtualBox gewechselt.

                Bei SW-Raid könnte man dann sicherlich dann nur solche Bereiche (nur die virtuelle Maschine auf eine andere Festplatte kopieren)

                Wie meinen?

                VMs brauchen selbst kein RAID, das übernimmt das Betriebssystem des Hosts (VirtualBox, VMware Server) bzw. die Virtualisierungssoftware (VMware ESX). Bei VirtualBox und VMWare Server ist eine VM aus Sicht des RAIDs nur ein Verzeichnis mit einigen Dateien, ein oder zwei sehr großen für die virtuellen Platten, dazu ein paar Log- und Konfigurationsdateien.

                Für den Transport auf einen anderen Host friert man den aktuellen Zustand der VM ein, schafft die Dateien auf den anderen Host, und taut die VM dort wieder auf. ESX und VirtualBox haben die Funktion eingebaut, bei VMware Server geht das, so weit ich mich erinnere, nur manuell.

                (Ein Grafiker hat schon eine Menge Bilder (als Vorlagen, Inspirationen usw.) in einen Ordner reingeknallt)

                Bilder-Datenbank benutzen?

                Ja, Adobe stellt mit Bridge ein gutes Tool bereit. Die Daten liegen zwar auf dem Fileserver, mit Bridge kann man jedoch die Bilder dort noch mit Metadaten, Sternen und sonstigen Kommentaren füttern.

                Also einen kleinen Fileserver nur für die Pinselschwinger. Am besten so gut getarnt, dass sie es gar nicht merken. ;-)

                Viel Arbeit. Dazu noch im laufenden Betrieb, und man muß es auch noch den Kollegen verkaufen. ("Das haben wir doch immer schon so gemacht, warum sollen wir das jetzt anders machen?")

                *gg

                Leider gar nicht lustig. Es kann extrem schwierig sein, Leuten Arbeitserleichterungen zu vermitteln. Je älter das Gehirn ist, desto mehr klammert es sich an alte, eingefahrene Verhaltensweisen.

                Und noch schwieriger wird es, wenn die Arbeitserleichterung einmalig einen geringüfügig höheren Arbeitsaufwand erfordert. Zum Beispiel, dass man zu einem Dokument noch drei bis fünf Schlagworte zusätzlich erfassen muß, nach denen man später in Sekundenbruchteilen statt Stunden suchen kann. Das typische Argument ist dann, dass dieser zusätzliche Aufwand so viel mehr Arbeit macht, dass man gar nicht fertig werden kann. Die spätere Arbeitserleichterung wird komplett ausgeblendet. Man hat eigentlich nur eine Chance, wenn man genau die Arbeitserleichterung massiv bewirbt und den Extra-Aufwand schnell und heimlich unter den Teppich kehrt.

                Richtig, Du wirst ein Intranet aufbauen. [...]

                Das funktioniert auch von unterwegs per VPN-Tunnel oder SSH-Socks-Proxy.

                [...]

                Das hört sich sehr schön an. Wenn das naher auch funktioniert, könnte man stolz auf sich sein. Bis dahin muss ich mich aber noch in einige Themen einlesen. Die erste Schwierigkeit für mich wäre auf Anhieb oben, dass man für alle Teilbereiche (Telefonbuch, DMS, Webmailer, Bugzilla) ein Account hat. Aber hier hatten wir ja bereits LDAP erwähnt. Wie das zu realisieren wäre, schaue ich mir dann an, inwieweit man das integriert.

                Gerade für das Telefonbuch (genauer: Liste aller internen Rufnummern) würde ich keinen Schutz vorsehen. Warum soll ich mich erst umständlich anmelden müssen, wenn ich die Telefonnummer vom Kollegen einen Flur weiter herausfinden will?

                Es bleibt alles im geschützten LAN, in das kein Fremder hereingelassen wird.

                (Man hatte mir auch mal Sharepoint als Tipp genannt gehabt, damit habe ich auch keinerlei Erfahrungen. Ich denke aber, dass die Lizenzkosten hier weitaus höher wären, bzw. alles dann zu sehr Microsoft-lastig, indem man zu sehr an die Produkte gebunden ist)

                Den Webmailer würdest aber nicht intern auf dem betriebsinternen Server laufen lassen ne, sondern auf einem externen (schnelleren) gehosteten Server?

                Nein, intern. Denn die Mails liegen auch alle auf dem internen Server. Wenn der Webmailer gehostet wäre, müßtest Du von der gehosteten Maschine einen Tunnel zu Deinem internen Mailserver öffnen. Ungeschickt und nur schwierig wirklich sicher einzurichten.

                VPN starten, Browser starten, auf der Standard-Startseite auf "Webmail" klicken.

                Alternativ, mit einer extrem strengen Password Policy, könntest Du den Webmailer auch in eine DMZ stellen und von außen per HTTPS darauf zugreifen (ggf. mit DynDNS o.ä., um einen festen Namen à la mycompany.dyndns.org zu bekommen).

                VPN verrammelt auch den Webmailer in einem Bereich, an den "kein Böser" (von Leuten, die das VPN knacken mal abgesehen) von außen herankommt. Wenn dann ein gedächtnisschwacher Kollege "123456" als Passwort hat, ist das kein so großer Beinbruch wie bei einem öffentlich erreichbaren Webmailer.

                In der Ist-Erhebung habe ich auch gesehen, dass eine Buchhaltungssoftware vorhanden ist, (Buchhaltungssoftware mit Warenwirtschaft, Inventar, Frakturierung (Angebote, Rechnungen...) usw), welche auf einem Workstation mit Windows installiert ist, an dem eine Person arbeitet. (Wenn nun andere Personen ein Angebot oder eine Rechnung erstellt haben wollen, müssen sie bei dieser Person abklopfen und ihn beauftragen, die zu tun. (Bzw. selber an den Rechner heran). (Also hätten die anderen kurz Zugang zu den Emails usw. Gut, man vertraut sich zwar und kennt sich gut, da die Firma sehr klein ist, trotzdem ist das nicht schön und unwirtschaftlich)

                Richtig. Entweder diese eine Software in eine VM packen und den Zugriff zur VM herumreichen, oder besser eine netzwerkfähige Software beschaffen. Evtl. gibt es vom vorhandenen Anbieter ja auch eine "größere" Version, die an mehreren Arbeitsplätzen gleichzeitig eingesetzt werden kann; idealerweise ohne neue Schulung durch identische Programmoberfläche.

                Wie macht man dies eigentlich bei größeren Firmen. [...]

                Keine Ahnung. Buchhaltung ist mir nie über den Weg gelaufen, außer dass ich den Kolleg(inn)en eine Bestellung oder Rechnung in die Finger gedrückt hätte. Und meine eigene Minimal-Buchhaltung hatte ich meinem Steuerberater reingedrückt.

                Wäre ich mit ERP auf dem richtigen Weg oder eine Standardsoftware (ala Lexware, Wiso usw.), die irgendwie mandant- bzw. netzwerkfähig wären?

                Standard-Software ist definitiv eine gute Idee, Netzwerkfähigkeit wäre richtig gut. Kostet natürlich meistens extra.

                Ich hatte mich verlesen (Kommt leider in letzter zu oft vor).

                Unkonzentriert? Mach mal Urlaub. Oder wenigstens regelmäßige Pausen. Lauf einmal ums Haus, mit dem Telefon und dem Handy auf dem Schreibtisch. Und vermeide 16-Stunden-Arbeitstage. Das bringt auf Dauer mehr Schaden als nutzen, nicht nur für das Unternehmen, sondern auch für Deine Gesundheit.

                Ja, derzeit lastet alles auf mich. Ich werde aber nach der Ist-Erhebung um viel Zeit bitten und versuche auch meine Zeit sinnvoll einzuteilen, mit der Hoffnung, dass niemand meckert, warum das so langsam vorangeht :-)

                Tip 1, noch aus Studentenzeiten: Sorge dafür, dass Du zu jeder Zeit irgendetwas präsentieren kannst. Bei Software-Entwicklung darf das, was Du zeigst, durchaus bei jedem dritten Klick abstürzen und rauchende Trümmerlandschaften hinterlassen, sofern man den Fortschritt zur Vorversion erkennen kann, die bei jedem zweiten Klick alles in Asche verwandelte. Idealerweise zeigst Du natürlich nur die Dinge, die keine Ruinen produzieren. Oder beim Debugging eine lange Liste von Dingen, die Du bereits ausgeschlossen hast.

                Tip 2: Such Dir eine Hilfskraft. Nenn ihn/sie Praktikant, studentische Hilfskraft, wissenschaftlicher Mitarbeiter, wie auch immer. Viele Routine-Jobs kann man so auslagern. Zum Beispiel durchs Haus rennen, um PC-Marke, PC-Modell, Betriebssystem, RAM- und Plattenbestückung, Standard- und Spezial-Software erfassen. Zum Beispiel 1000 ausgefüllte Fragebögen einhacken. Oder, bei besonders fitten / motivierten Prakikanten: Test-Umgebung aufbauen. "Geh ins Lager, hol 10 brauchbare PCs, baue ein Imaging-System mit Software-Verteilung auf. Teste und bewerte freie Software für diesen Zweck." Das ist eine wunderschöne Diplomarbeit.

                Alexander

                --
                Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                1. Hi,

                  Zu teuer und nicht wirklich sinnvoll. SSDs sterben leise und überraschend, und das bißchen mehr Performance brauchst Du in aller Regel nicht. Beim Server ist es vollkommen egal, ob der in 30 Sekunden oder in fünf Minuten bootet, denn der Server läuft Tag und Nacht. Danach hilft Dir viel RAM wesentlich mehr als eine schnelle Platte, denn das kann das Betriebssystem nach aktuellem Bedarf zwischen Buffer Cache (sprich: Platten-Cache) und Anwendungen aufteilen. In der Regel wird fast das gesamte freie RAM als Buffer Cache benutzt.

                  Ja, habe ich leider etwas zu spät bemerkt, als ich mehr ältere Beiträge von dir gelesen hatte.

                  Warum willst Du interne Daten ins Internet stellen?

                  Gerade der (interne) Issue-Tracker gehört in ein geschützes Netz, und ehrlich gesagt möchte ich auch nicht meine Firmenmails irgendwo im Internet rumspuken sehen.

                  Bugzilla und Trac sind ziemlich blödensicher installierbar; oft bringen die Distributionen sogar schon fertige Pakete mit. Da gibt es also kaum einen Grund, einen gehosteten Server zu benutzen.

                  Für die Groupware sollte ähnliches gelten.

                  Für den Zugriff auf Groupware und Issue-Tracker hast Du das VPN; weltweit erreichbar, wo auch immer man sich per analoger Telefonleitung, ISDN, DSL, GPRS, EDGE, UMTS, LTE ins Internet einwählen kann.

                  Gehostet, weil das abrufen der Emails von außen auf einem betriebsinternen Server sicherlich langsam wäre. (DSL 16.000). Wobei bald auf 50.000 umgestiegen wird mit etwa 10Mbit Upstream. Wenn man jedoch bedenkt, dass ein Offline-Zugriff nicht so oft vorkommt, könnte man die Geschwindigkeit vernachlässigen und hätte bei weitem (richtig konfiguriert) einen höheren Sicherheitsaspekt.

                  Bei Bugzilla dachte ich, dass man dies evtl. auf die Firmenwebseite integriert (deshalb gehostet). Wo Kunden dann direkt die Fehler eintragen können. (Sonst müsste ich HTTP vom betriebsinternen Server freigeben oder die Kundenfehler kommen auf dem gehosteten Server auf die DB und ich muss von Betriebsintern irgendwie auf die Daten zugreifen). Ja, hier will ich noch nicht tief einsteigen, da ich noch nicht die Zeit gefunden hatte, mich in Bugzilla einzuarbeiten. Davor will ich mir noch VPN anschauen, wie die Applikation (Bsp. normale Software oder Webapps (192.168.1.0) dann von außen (wenn ich mit VPN das betriebsinterne Netz verbunden habe), aufzurufen ist. (Ist ja nicht wie ein Webserver)

                  Oder, es läuft auf einer VM, so dass ich die VM aufrufe. (Hinzu kommt dann noch, dass die Software(s) ja für mehrere Mitarbeiter (je nach Account) zugänglich sein muss)
                  . Hier muss ich nach den Anforderungen etwas tiefer einsteigen und mich einlesen.

                  VMs brauchen selbst kein RAID, das übernimmt das Betriebssystem des Hosts (VirtualBox, VMware Server) bzw. die Virtualisierungssoftware (VMware ESX). Bei VirtualBox und VMWare Server ist eine VM aus Sicht des RAIDs nur ein Verzeichnis mit einigen Dateien, ein oder zwei sehr großen für die virtuellen Platten, dazu ein paar Log- und Konfigurationsdateien.

                  Ja, ich hatte mich falsch ausgedrückt. Ich meinte damit, dass man einmal das Betriebssystem sichern könnte, einmal die Daten/Dokumente oder eine VM (wo dann die Daten und Dokumente drin sind). Die VM ist ja, wie du bereits erwähnt hast, wenige oder nur eine große Datei. Eigentlich sind die Daten und Dokumente eh betriebssystemunabhängig, aber innerhalb einer VM würde sich alles aber besser mit anderen Programmer besser portieren.

                  Für den Transport auf einen anderen Host friert man den aktuellen Zustand der VM ein, schafft die Dateien auf den anderen Host, und taut die VM dort wieder auf. ESX und VirtualBox haben die Funktion eingebaut, bei VMware Server geht das, so weit ich mich erinnere, nur manuell.

                  Privat nutze ich Virtualbox auf meinem Notebook. Erfahrungen damit, wie man die VM über ein Netzwerk aufruft habe ich nicht. Sollte aber weniger das Problem sein. Das Image/VDI liegt einfach nur entfernt, wenn man es im Virtualbox-Frontend einbindet.

                  *gg

                  Leider gar nicht lustig. Es kann extrem schwierig sein, Leuten Arbeitserleichterungen zu vermitteln. Je älter das Gehirn ist, desto mehr klammert es sich an alte, eingefahrene Verhaltensweisen.

                  Und noch schwieriger wird es, wenn die Arbeitserleichterung einmalig einen geringüfügig höheren Arbeitsaufwand erfordert. Zum Beispiel, dass man zu einem Dokument noch drei bis fünf Schlagworte zusätzlich erfassen muß, nach denen man später in Sekundenbruchteilen statt Stunden suchen kann. Das typische Argument ist dann, dass dieser zusätzliche Aufwand so viel mehr Arbeit macht, dass man gar nicht fertig werden kann. Die spätere Arbeitserleichterung wird komplett ausgeblendet. Man hat eigentlich nur eine Chance, wenn man genau die Arbeitserleichterung massiv bewirbt und den Extra-Aufwand schnell und heimlich unter den Teppich kehrt.

                  Wie wahr. Trotzdem sollte man seine Laune deswegen nicht verderben lassen oder das lächeln vergessen :-)

                  Nein, intern. Denn die Mails liegen auch alle auf dem internen Server. Wenn der Webmailer gehostet wäre, müßtest Du von der gehosteten Maschine einen Tunnel zu Deinem internen Mailserver öffnen. Ungeschickt und nur schwierig wirklich sicher einzurichten.

                  VPN starten, Browser starten, auf der Standard-Startseite auf "Webmail" klicken.

                  Ja, das schaue ich mir wie bereits erwähnt an, wie Applikationen oder Webappliaktionen aufzurufen sind. (Ist ja nicht so einfach wie Netzlaufwerk einbinden). Browsergeschichten dürften jedoch nicht schwer sein. Von außen die URL (Bsp. 192... oder deine erwähnten Kürzel go/webmailer) einfach über das VPN-Gateway nach intern umlenken.

                  Alternativ, mit einer extrem strengen Password Policy, könntest Du den Webmailer auch in eine DMZ stellen und von außen per HTTPS darauf zugreifen (ggf. mit DynDNS o.ä., um einen festen Namen à la mycompany.dyndns.org zu bekommen).

                  VPN verrammelt auch den Webmailer in einem Bereich, an den "kein Böser" (von Leuten, die das VPN knacken mal abgesehen) von außen herankommt. Wenn dann ein gedächtnisschwacher Kollege "123456" als Passwort hat, ist das kein so großer Beinbruch wie bei einem öffentlich erreichbaren Webmailer.

                  Das stimmt. Erst müsste das VPN geknackt werden + zusätzlich noch das Passwort für die Groupware. (Wobei es ja dort mehr zu sehen gibt, als nur die Groupware)

                  Richtig. Entweder diese eine Software in eine VM packen und den Zugriff zur VM herumreichen, oder besser eine netzwerkfähige Software beschaffen. Evtl. gibt es vom vorhandenen Anbieter ja auch eine "größere" Version, die an mehreren Arbeitsplätzen gleichzeitig eingesetzt werden kann; idealerweise ohne neue Schulung durch identische Programmoberfläche.

                  VM wäre bei unserer jetzigen Software die einzige Alternative. Ich habe an den Anbieter eine Email herausgeschickt, welche Möglichkeit man sonst hätte, wenn man auf ein anderer Paket umsteigt.

                  Ja, derzeit lastet alles auf mich. Ich werde aber nach der Ist-Erhebung um viel Zeit bitten und versuche auch meine Zeit sinnvoll einzuteilen, mit der Hoffnung, dass niemand meckert, warum das so langsam vorangeht :-)

                  Tip 1, noch aus Studentenzeiten: Sorge dafür, dass Du zu jeder Zeit irgendetwas präsentieren kannst. Bei Software-Entwicklung darf das, was Du zeigst, durchaus bei jedem dritten Klick abstürzen und rauchende Trümmerlandschaften hinterlassen, sofern man den Fortschritt zur Vorversion erkennen kann, die bei jedem zweiten Klick alles in Asche verwandelte. Idealerweise zeigst Du natürlich nur die Dinge, die keine Ruinen produzieren. Oder beim Debugging eine lange Liste von Dingen, die Du bereits ausgeschlossen hast.

                  Ja, bei mir wird am Anfang noch viel Einlesen/Einlernen und eher wenig Fortschritt zu erkennen sein. Wenn das ganze jedoch mal funktioniert, dann wird man sicherlich auch den Merhwert sehen. Und wenn das Ding mal läuft, kann ich mich fortlaufend immer tiefer einarbeiten und weiter lernen und verbessern.

                  Tip 2: Such Dir eine Hilfskraft. Nenn ihn/sie Praktikant, studentische Hilfskraft, wissenschaftlicher Mitarbeiter, wie auch immer. Viele Routine-Jobs kann man so auslagern. Zum Beispiel durchs Haus rennen, um PC-Marke, PC-Modell, Betriebssystem, RAM- und Plattenbestückung, Standard- und Spezial-Software erfassen. Zum Beispiel 1000 ausgefüllte Fragebögen einhacken. Oder, bei besonders fitten / motivierten Prakikanten: Test-Umgebung aufbauen. "Geh ins Lager, hol 10 brauchbare PCs, baue ein Imaging-System mit Software-Verteilung auf. Teste und bewerte freie Software für diesen Zweck." Das ist eine wunderschöne Diplomarbeit.

                  In deinen älteren Beiträgen fand ich den Ansatz interessant, wenn auf den Workstations das Image, bzw. den Account für das Betriebssystem auf einem zentralen Server hat.

                  Grüße

                  1. Moin Moin!

                    Warum willst Du interne Daten ins Internet stellen?

                    Gehostet, weil das abrufen der Emails von außen auf einem betriebsinternen Server sicherlich langsam wäre. (DSL 16.000).

                    Definitiv nicht. Emails kommen nicht als riesiger Stream, sondern in überschaubaren Häppchen. Insbesondere, wenn der Provider schon einen guten Spam-Filter hat, kommen kaum unnütze Daten über die Leitung. Wenn die Leitung sehr eng wäre, könnte man per QoS E-Mails in der Priorität etwas nach unten setzen, dann stören die beim Surfen nicht.

                    Wobei bald auf 50.000 umgestiegen wird mit etwa 10Mbit Upstream.

                    Mein Arbeitgeber: DSL 6000 für ca. 100 Leute, darüber läuft sämtlicher Verkehr ins und aus dem Internet, Surfen, Mailen, VPN, was auch immer. Und das reicht. Klar, mehr Bandbreite macht mehr Spaß. Aber die Leitung ist nicht störend langsam.

                    [...] hätte bei weitem (richtig konfiguriert) einen höheren Sicherheitsaspekt.

                    Richtig. Und du überschätzt die Bandbreitenanforderung für Mails gewaltig. Summier mal auf, wie groß alle Mails eines Tages sind, und teile das durch 86400 Sekunden. (Statistisch ist das nicht ganz sauber, aber ein guter Daumenfaktor.)

                    Bei Bugzilla dachte ich, dass man dies evtl. auf die Firmenwebseite integriert (deshalb gehostet). Wo Kunden dann direkt die Fehler eintragen können.

                    Das werden sie nicht tun; nicht in einer Form, mit der ihr arbeiten könnt. Fehlermeldungen von Kunden durchlaufen den Kundendienst ("Support"); die Support-Leute tragen qualifiziert in Bugzilla (Trac, whatever) ein. Für bekannte Fehler, die ber Workaround zu erschlagen sind, sollten die Supporter den Workaround im Bugzilla auch gleich finden.

                    (Sonst müsste ich HTTP vom betriebsinternen Server freigeben oder die Kundenfehler kommen auf dem gehosteten Server auf die DB und ich muss von Betriebsintern irgendwie auf die Daten zugreifen).

                    Prinzipiell die richtige Idee, aber 99% aller Kunden-Fehlermeldungen werden sinngemäß "Scheißsystem geht nicht. Schrott." lauten. Der Haupt-Job der Support-Leute ist es, den Kunden von der Palme zu holen. Dann müssen sie eine brauchbare (sprich: nachvollziehbare) Fehlerbeschreibung aus dem Kunden rauskitzeln, und ganz am Rande, und längst nicht immer, müssen sie den Fehler beheben können.

                    Und interne Issues gehen die Kunden nichts an.

                    Ja, hier will ich noch nicht tief einsteigen, da ich noch nicht die Zeit gefunden hatte, mich in Bugzilla einzuarbeiten. Davor will ich mir noch VPN anschauen, wie die Applikation (Bsp. normale Software oder Webapps (192.168.1.0) dann von außen (wenn ich mit VPN das betriebsinterne Netz verbunden habe), aufzurufen ist. (Ist ja nicht wie ein Webserver)

                    Der Witz am VPN ist, dass es - sobald das VPN sauber läuft - kein "außen" mehr gibt. Der über VPN eingewählte Rechner ist ein vollwertiges Mitglied des internen Netzes. Er nutzt den DNS des internen Netzes, kommt auf alle (nicht von Firewall-Regeln verrammelten) Systeme drauf, und kann alle Software nutzen, die über TCP/IP oder UDP/IP kommuniziert. Auch Windows packt seit etwa Windows 95 seine kruden RPC-, File- und Print-Dienste brav in TCP- und UDP-Pakete. Und außer in sehr wenigen Spezialfällen gilt das auch für so ziemlich jede Software, die sich als Netzwerk-fähig bezeichnen läßt.

                    Oder, es läuft auf einer VM, so dass ich die VM aufrufe.

                    Du rufst keine VM auf. Ändere Dein Bild einer VM: Eine VM ist keine Anwendung wie Firefox, Word oder Excel. VMs sind kleine Noname-Rechner, sicher untergebracht in der großen Zauberkiste des fetten VirtualBox- bzw. VMware-Servers. An den Rechnern hängt ein KVM-Adapter, mit dem Du auf VGA, Maus und Tastatur zugreifen kannst, außerdem eine Fernsteuerung für Netzschalter und Reset-Taster.

                    Natürlich kannst Du Bugzilla in eine VM packen. Aber es gibt exakt gar keinen Unterschied im Umgang zu einem Bugzilla, der auf einem dedizierten Rechner irgendwo in einem Rack oder auf einem Regal läuft.

                    Der einzige Unterschied für Administratoren ist, dass sie die Maschine, auf der der Bugzilla läuft, nicht direkt anfassen können.

                    (Hinzu kommt dann noch, dass die Software(s) ja für mehrere Mitarbeiter (je nach Account) zugänglich sein muss)
                    . Hier muss ich nach den Anforderungen etwas tiefer einsteigen und mich einlesen.

                    Jau. Single Sign On geht mit IE und mit neueren Firefox-Versionen wohl recht schmerzlos, wenigstens unter Windows; dem Apachen verpaßt man ein passendes Modul, dass NTLM-Auth beherrscht und gegen das Active Directory prüft. Bugzilla selbst verläßt sich bezüglich der Anmeldung dann komplett auf den Apachen und bekommt von diesem nur noch den Namen des angemeldeten Benutzers weitergereicht.

                    Andere Web-basierte Anwendungen werden analog konfiguriert, so dass sie sich auf den Apachen verlassen oder wenigstens Logins am zentralen LDAP-Server prüfen

                    Ja, ich hatte mich falsch ausgedrückt. Ich meinte damit, dass man einmal das Betriebssystem sichern könnte, einmal die Daten/Dokumente oder eine VM (wo dann die Daten und Dokumente drin sind). Die VM ist ja, wie du bereits erwähnt hast, wenige oder nur eine große Datei. Eigentlich sind die Daten und Dokumente eh betriebssystemunabhängig, aber innerhalb einer VM würde sich alles aber besser mit anderen Programmer besser portieren.

                    Du hast für das Backup von VMs zwei grundlegend unterschiedliche Möglichkeiten:

                    Entweder sicherst Du im Rahmen des normalen Host-Backups auch die Dateien, die die Virtualisierungssoftware auf dem Host hinterläßt; idealerweise sorgst Du dafür, dass während des Backups die VMs diese Dateien nicht verändern (Pause-Funktion oder notfalls Snapshot-Funktion).

                    Oder Du nimmst die Arbeitsdateien der Virtualisierungssoftware explizit vom Backup des Hosts aus und sicherst jede VM separat, mit Backup-Software, die innerhalb der VM läuft.

                    Für meine Zwecke reicht der erste Weg. Dabei schalte ich vor Beginn des nächtlichen Backups alle laufenden VMs auf Pause (virtuelle CPU steht still), und nach Ende des Backups eine halbe bis zwei Stunden später wecke ich die VMs wieder auf.

                    Für den Transport auf einen anderen Host friert man den aktuellen Zustand der VM ein, schafft die Dateien auf den anderen Host, und taut die VM dort wieder auf. ESX und VirtualBox haben die Funktion eingebaut, bei VMware Server geht das, so weit ich mich erinnere, nur manuell.

                    Privat nutze ich Virtualbox auf meinem Notebook. Erfahrungen damit, wie man die VM über ein Netzwerk aufruft habe ich nicht. Sollte aber weniger das Problem sein. Das Image/VDI liegt einfach nur entfernt, wenn man es im Virtualbox-Frontend einbindet.

                    So ungefähr. Man hat die VM-Dateien auf einem zentralen Storage-System, dass sich die Hosts teilen. Maximal einer der Hosts läßt die VM dann tatsächlich laufen. Das "rüberbeamen" ist so darauf beschränkt, CPU- und RAM-Zustand in eine Datei zu schreiben, die Virtualisierung auf Host 1 anzuhalten und auf Host 2 wieder aufzunehmen.

                    Ohne zentrales Storage-System müßte man tatsächlich die ganzen Dateien einer VM hin und her kopieren. Das ginge auch, wäre aber drastisch langsamer.

                    Wenn Du spielen willst, friere eine VM auf Deinem Rechner ein (VBoxManage controlvm spiel-vm savestate), kopiere das gesamte VM-Verzeichnis auf einen anderen Rechner, und starte die VM dort wieder (nachdem Du sie dort eingebunden hast).

                    Wenn Du etwas näher an die Realität kommen willst, befasse dich mit der Teleporting-Funktion. Dazu brauchst Du einen gemeinsamen Fileserver und mindestens zwei VirtualBox-Hosts.

                    VPN starten, Browser starten, auf der Standard-Startseite auf "Webmail" klicken.

                    Ja, das schaue ich mir wie bereits erwähnt an, wie Applikationen oder Webappliaktionen aufzurufen sind. (Ist ja nicht so einfach wie Netzlaufwerk einbinden). [...]

                    Wenn man sich per VPN eingewählt hat, ist man "innen" im Netz. Keine Extrawürste, kein Umlenken für VPN nötig. Und natürlich kann man auch Netzlaufwerke per VPN einbinden.

                    Das einzige Sicherheitsrisiko ist ein zusätzlicher Weg aus dem mobilen Rechner heraus ins Internet, der die normale Abschirmung des internen Netzes "überbrückt" und so zu einem Leck bzw. Einfallstor für Malware wird. Daher sollte ein sauber konfigurierter VPN-Client absolut keinen Datenverkehr außerhalb des VPN-Tunnels erlauben. Das bedeutet z.B., dass sich ein Kollege per VPN an einem normalen DSL-Anschluß einwählt, und danach surfen, mailen, chatten und so weiter nur noch durch den VPN-Tunnel läuft und ggf. von der Firewall in der Firma geblockt wird.

                    VPN verrammelt auch den Webmailer in einem Bereich, an den "kein Böser" [...] von außen herankommt. [...]

                    Das stimmt. Erst müsste das VPN geknackt werden + zusätzlich noch das Passwort für die Groupware. (Wobei es ja dort mehr zu sehen gibt, als nur die Groupware)

                    Richtig. Das VPN ist extrem kritisch. Daher sollte es sehr gründlich dokumentiert und verifiziert sein. Es ist keine Schande, sich dafür externes Know-How einzukaufen. Wenn man es ganz korrekt machen will, läßt man Unternehmen 1 das Zeug komplett aufbauen und Unternehmen 2 den Aufbau testen (mit Penetrationstests).

                    Auch sollte klar dokumentiert sein, wie man mit Mitarbeitern umgeht, die VPN-Zugang haben und die vor die Tür gesetzt werden sollen. Wann und wie sperrt man den VPN-Zugang eines Mitarbeiters?

                    Vermutlich wird das VPN mit einer Kombination aus Token und Passwort abgesichert sein, das ist Stand der Technik. Daher muß ebenso klar dokumentiert sein, wie man mit einem verlorenen Token umgeht. Wie kann das schnellstmöglich gesperrt werden, wie bekommt der Kollege einen neuen Token, wie wird der neue Token am System angemeldet und dem Kollegen zugeordnet?

                    Welche Leute haben "die Macht" über das VPN? Ich würde da mindestens zwei Leute vorsehen, die sich gegenseitig ersetzen können. Es darf nie vorkommen, das beide gleichzeitig in Urlaub oder krank sind.

                    Tip 1, noch aus Studentenzeiten: Sorge dafür, dass Du zu jeder Zeit irgendetwas präsentieren kannst. Bei Software-Entwicklung darf das, was Du zeigst, durchaus bei jedem dritten Klick abstürzen und rauchende Trümmerlandschaften hinterlassen, sofern man den Fortschritt zur Vorversion erkennen kann, die bei jedem zweiten Klick alles in Asche verwandelte. Idealerweise zeigst Du natürlich nur die Dinge, die keine Ruinen produzieren. Oder beim Debugging eine lange Liste von Dingen, die Du bereits ausgeschlossen hast.

                    Ja, bei mir wird am Anfang noch viel Einlesen/Einlernen und eher wenig Fortschritt zu erkennen sein.

                    Genau deswegen solltest Du aber immer etwas Präsentierbares haben. Sei es ein kleines Labor-Netz mit VMs und VPN, sei es einfach nur eine rohe Präsentation, in der Du den aktuellen Stand kurz beschreibst.

                    Wenn das ganze jedoch mal funktioniert, dann wird man sicherlich auch den Merhwert sehen. Und wenn das Ding mal läuft, kann ich mich fortlaufend immer tiefer einarbeiten und weiter lernen und verbessern.

                    Du machst Dich damit quasi unentbehrlich. Das sichert den eigenen Job.

                    Aber denke auch daran, dass Du eine komplette EDV kaum alleine aufbauen und betreiben kannst. Versuche, das in einem kleinen Team (wenigstens zu zweit) zu erledigen. VPN ist ein relativ abgeschlossenes Thema, VMs ebenso. Das kann man auch mal jemandem übergeben. Bau Dir einen Stellvertreter auf.

                    Alexander

                    --
                    Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                    1. Hi,

                      Das werden sie nicht tun; nicht in einer Form, mit der ihr arbeiten könnt. Fehlermeldungen von Kunden durchlaufen den Kundendienst ("Support"); die Support-Leute tragen qualifiziert in Bugzilla (Trac, whatever) ein. Für bekannte Fehler, die ber Workaround zu erschlagen sind, sollten die Supporter den Workaround im Bugzilla auch gleich finden.

                      Ja, du gibst mir wirklich sehr viele und wichtige Tipps. (Ich habe mir schon sehr viele Notizen gemacht)

                      Bisher läuft das ganze auf dies hinaus. (Nur grober Gedankengang auf die schnelle)

                      Auf dem betriebsinternen Linuxserver (der mit RAID1 und 5 abgesichert wird, plus Sicherung oder Backup auf einem externen NAS) wären folgende Programme/Komponenten drauf:

                      • Intranet-Webseite (Mit Links zu den einzelnen Komponenten)
                      • Telefonbuch
                      • Groupware (Höchstwahrscheinlich Webbasiert. Für Email (auch gemeinsame Emails wie info@.. support@..), Aufgaben (Projekte), Kalender, Android-Zugriff ...)
                      • DMS (Für Dokumente, Pläne, Diagramme, Tutortials/Ebooks evtl. auch Bilder ...)
                      • Fileserver (Für sonstige Dateien. Bsp. Softwarequellen ...)
                      • SVN (Für Entwicklungs- /Arbeitsdateien/dokumente)
                      • Software für gemeinsame Passwörter/Zugänge
                      • Bugzilla/Trac/OTRS für Beschwerden. (Eingang der Beschwerde direkt an Support per Email, Telefon oder Webfrontend)
                      • VM mit Windows (Für die gemeinsame Nutzung der Buchhaltungssoftware)

                      (-  CRM weiß ich noch nicht. Interessant wäre es sicherlich, wenn ein Kunde anruft und man sofort die älteren Kommunikationen und Dokumentationen aufschlagen kann)
                      (- Ideen könnte man evtl. über Bugzilla evtl. managen, wenn es sich kategorisieren lässt)

                      An welche Software ich noch denken muss, kommt sicherlich noch raus, wenn die Ist-Erhebung und Analyse fertig ist. (Die Telefonanlage (nur eine Fritzbox 7390 und drei Dect-Telefone) sollte ich auch analysieren, ob hier softwaretechnsich etwas zu machen ist)
                      Server-Konfiguration das Eine und das Andere, wie man am Besten die Arbeitstationen/Notebooks konfigurieren könnte. (Images war ja bereits ein Stichwort)
                      Thin-Clients/Fat-Clients könnte man sich eigentlich fast überlegen, da an 3-4 Rechnern Kleinkruscht (oder Programmierumg mit Netbeans und Co.) gemacht wird. Und ein Rechner für Grafikbearbeitetung. (Hier soll demnächst ein neuer her). (Wobei man aber bei der Adobe-Palette sicherlich nicht über ein Thin-Client die Software von einem zentalen (dafür mächtigeren) Server realisieren sollte). Nee, diese Idee verwerfe ich mal, denn ich bin noch bei der Ist-Erhebung :-)

                      Ich weiß, es gibt zwar auch Komplettsoftware oder Stichworte wie SOA oder EAI (das treibt aber sicherlich die Kosten für solch eine kleine Firma in die Höhe)

                      Jau. Single Sign On geht mit IE und mit neueren Firefox-Versionen wohl recht schmerzlos, wenigstens unter Windows; dem Apachen verpaßt man ein passendes Modul, dass NTLM-Auth beherrscht und gegen das Active Directory prüft. Bugzilla selbst verläßt sich bezüglich der Anmeldung dann komplett auf den Apachen und bekommt von diesem nur noch den Namen des angemeldeten Benutzers weitergereicht.

                      Danke für die Tipps. Die habe ich mir auch notiert und berücksichtige dies später bei der Umsetzung, ob AD, LDAP usw.
                      Gestern habe ich noch von "Liferay" gelesen, was auch Komponenten vereinen und personalisieren kann.

                      Wenn Du spielen willst, friere eine VM auf Deinem Rechner ein (VBoxManage controlvm spiel-vm savestate), kopiere das gesamte VM-Verzeichnis auf einen anderen Rechner, und starte die VM dort wieder (nachdem Du sie dort eingebunden hast).

                      Das hatte ich bereits getestet. Ich könnte das System einfrieren und einem anderen Host per USB-Stick übergeben. Er konnte dann am letzten Zustand weitermachen.

                      (Vielleicht eine dumme Frage. Ist es da möglich, wenn man einen zentralen Fileserver hat, dass ein Host an der VM arbeitet und sich ein zweiter Host (nur anschauend) dazuschaltet? (Dann müsste man vermutlich innerhalb der VM eine Remote-Verbindung machen)

                      Das einzige Sicherheitsrisiko ist ein zusätzlicher Weg aus dem mobilen Rechner heraus ins Internet, der die normale Abschirmung des internen Netzes "überbrückt" und so zu einem Leck bzw. Einfallstor für Malware wird. Daher sollte ein sauber konfigurierter VPN-Client absolut keinen Datenverkehr außerhalb des VPN-Tunnels erlauben. Das bedeutet z.B., dass sich ein Kollege per VPN an einem normalen DSL-Anschluß einwählt, und danach surfen, mailen, chatten und so weiter nur noch durch den VPN-Tunnel läuft und ggf. von der Firewall in der Firma geblockt wird.

                      Das wird schwierig sein. Ich wähle mich Beispiel mit einem UMTS-Stick mobil ein. (Ich wäre Internetfähig und könnte jegliche Malware empfangen). Nun soll es sicherheitshalber so sein, dass ich mich per VPN in das interne Netze einwähle und die Internetverbindung über das UMTS-Stick quaisi blockiert wird und ich nur noch über das interne Netz surfen kann. (Oder habe ich da etwas falsch verstanden?)

                      Vermutlich wird das VPN mit einer Kombination aus Token und Passwort abgesichert sein, das ist Stand der Technik. Daher muß ebenso klar dokumentiert sein, wie man mit einem verlorenen Token umgeht. Wie kann das schnellstmöglich gesperrt werden, wie bekommt der Kollege einen neuen Token, wie wird der neue Token am System angemeldet und dem Kollegen zugeordnet?

                      Ja viele Fragen, die abgeklärt werden müssen. Die Einrichtung über zwei externe Firmen werde ich auch beherzigen. Hört sicherer an :-)

                      Du machst Dich damit quasi unentbehrlich. Das sichert den eigenen Job.

                      Man muss wie immer alles gut Dokumentieren und Handbücher führen, damit andere sich zu einem anderen Zeitpunkt besser zurechtfinden.

                      Aber denke auch daran, dass Du eine komplette EDV kaum alleine aufbauen und betreiben kannst. Versuche, das in einem kleinen Team (wenigstens zu zweit) zu erledigen. VPN ist ein relativ abgeschlossenes Thema, VMs ebenso. Das kann man auch mal jemandem übergeben. Bau Dir einen Stellvertreter auf.

                      Wenn ich alles gelernt und verstanden habe, kann ich dann andere Mitarbeiter einweisen. (Durch die Dokumentation wird es dann auch leichter gehen, bzw. die Einweisung sich der Mitarbeiter nicht merken muss, sondern Hauptsache, er hat es technisch verstanden.) Oder, wir stellen einen berufserfahrenen Mitarbeiter ein und ich werde der Stellvertreter und ich werde angelernt :-)

                      Grüße

                      1. Moin Moin!

                        [...]

                        • DMS

                        Gut.

                        • Fileserver

                        Böse. (Weißt schon ...)

                        Überleg Dir gut, wer auf Fileserver schreiben darf. 100 Liegestützen und eine Woche Gummibärchen-Entzug für alle Schreibberechtigten, die Dinge auf den Fileserver packen, die dort nicht hingehören.

                        Vermutlich wirst Du früher oder später einen Transfer-Ordner/-Laufwerk einrichten, auf dem jeder schreiben darf, ohne jede Rechteprüfung. Darum kommt man kaum herum; aber damit der Ordner nicht zu einer Müllhalde oder einem inoffiziellen Archiv ausartet, packst Du gleich am ersten Tag zwei Dinge dazu:

                        Erstens einen Cronjob, der jede Nacht gnadenlos und ohne Ausnahme alles löscht, was dort seit mehr als einem / drei / sieben Tagen liegt.

                        Und zweitens eine README-Datei auf oberster Ebene, die als einzige Datei vom Löschen ausgenommen ist, und die diese Regel klar verständlich dokumentiert (mit einem Link auf das Dokument, das erklärt, was wo abzulegen ist).

                        Das Transfer-Verzeichnis ist übrigens einer der wenigen Kandidaten für eine Ausnahme vom Backup, wenn der Platz knapp wird.

                        [...]

                        • VM mit Windows (Für die gemeinsame Nutzung der Buchhaltungssoftware)

                        Leg noch die eine oder andere VM für die Entwickler drauf, auf denen sie testen können.

                        Vielleicht spendierst Du den Entwicklern auch einen dedzierten Rechner nur für Test-VMs.

                        (-  CRM weiß ich noch nicht. Interessant wäre es sicherlich, wenn ein Kunde anruft und man sofort die älteren Kommunikationen und Dokumentationen aufschlagen kann)

                        Guter Plan. Gekoppelt mit der Telefonanlage poppt die Information schon auf dem Supporter-Bildschirm auf, sobald der Anrufer seine Rufnummer übermittelt.

                        Das DMS kannst Du z.B. auch mit den Kunden(nummern) verschlagworten bzw. pro Kunde eine Ordnerstruktur anlegen.

                        Auch im Bugzilla geht das über entsprechende Custom Fields.

                        (- Ideen könnte man evtl. über Bugzilla evtl. managen, wenn es sich kategorisieren lässt)

                        Exakt dafür ist Bugzilla da. "Bugs" im Bugzilla-Jargon sind weit mehr als nur Fehler in der Software. Auch Verbesserungen und neue Features werden als Bugs getrackt.

                        Kleiner Lesetipp: Bug Writing Guidelines

                        [...] Die Telefonanlage (nur eine Fritzbox 7390 und drei Dect-Telefone) sollte ich auch analysieren, ob hier softwaretechnsich etwas zu machen ist) [...]

                        Die Fritzbox hat ab Werk einen VPN-Server. AVM dokumentiert die Einrichtung in der FAQ, für einzelne Rechner, für ganze Netze und für überteuertes Obst. Security Tokens gibt's nicht, und auch das Management ist eher spärlich, aber das VPN kostet nichts extra. Audit kannst Du auch mal knicken.

                        http://www.wehavemorefun.de/fritzbox/index.php/Main_Page kennst Du?

                        Server-Konfiguration das Eine und das Andere, wie man am Besten die Arbeitstationen/Notebooks konfigurieren könnte. (Images war ja bereits ein Stichwort)

                        Ja. Je nach dem, wie viele Arbeitsplätze Du hast. Installations-Images und erst recht eine Software-Verteilung sind erst ab einer gewissen Größe sinnvoll, denn es ist wesentlich mehr Aufwand, Software in eine Software-Verteilung zu quetschen als sie stumpf auf einem einzelnen oder auch zwei oder drei Rechnern zu installieren. Ab einer gewissen Größe kehrt sich das dann um, die vorbereitete Anwendungssoftware wird einfach für User oder Gruppen zentral freigeschaltet und dann beim nächsten Login vollautomatisch installiert.

                        Images als Backup für die System-Platte/-Partition sind eine völlig andere Geschichte, und gerade bei Windows einigermaßen sinnvoll.

                        Thin-Clients/Fat-Clients könnte man sich eigentlich fast überlegen, da an 3-4 Rechnern Kleinkruscht (oder Programmierumg mit Netbeans und Co.) gemacht wird.

                        Bei drei Telefonen und einer Fritzbox gehe ich mal von einem eher kleinen Laden aus. Da ist ein großflächiger Rollout von Thin Clients Overkill.

                        Aber Thin Clients sind keine blöde Idee, so lange Du wirklich nur Kleinkram an den Maschinen machen willst. Alte Hardware hast Du vermutlich auch noch. Kombiniere beides mit Thinstation und das Ganze kostet nur etwas Arbeit.

                        Ein Gigabit-schnelles Netzwerk ist gerade bei Thin Clients sehr wichtig. 100 MBit/s geht auch, aber mit Gigabit macht es definitiv mehr Spaß.

                        Das gilt auch, wenn Du möglichst alle Daten auf Servern ablegst statt auf den Clients. (Klar, oder? Wenn alles auf Servern liegt, muß der Zugriff dorthin sehr schnell sein.)

                        Und ein Rechner für Grafikbearbeitetung. (Hier soll demnächst ein neuer her). (Wobei man aber bei der Adobe-Palette sicherlich nicht über ein Thin-Client die Software von einem zentalen (dafür mächtigeren) Server realisieren sollte). Nee, diese Idee verwerfe ich mal, denn ich bin noch bei der Ist-Erhebung :-)

                        Gib dem Grafiker eine flotte Maschine mit RAM satt, einer kräftigen Grafikkarte und ein bis zwei großen Monitoren. Je nach Software wäre eine flotte Platte / SSD für Arbeitsdateien auch nicht schlecht. Und aus eigener Erfahrung: Grafiker küssen Dir die Füße, wenn Du ihnen einen Obstkorb anreichst.

                        Programmierern gibst Du ebenso flotte Maschinen mit RAM satt, zwei große Monitore wären auch hier nicht verkehrt. Es ist einfach viel teurer, die Code-Sklaven stundenlang dem Compiler zusehen zu lassen, als eine flotte Maschine zu kaufen.

                        Die ausgemusterten Rechner von Grafikern und Codern kannst Du zu Test-Servern umfunktionieren oder zu immer noch flotten Arbeitsrechnern für sonstige Schreibtischtäter (Support, Buchhaltung, ...).

                        Was die abgeben, wird zum Thin Client. Und was selbst dafür zu lahm ist, wird verschrottet oder verschenkt.

                        (Vielleicht eine dumme Frage. Ist es da möglich, wenn man einen zentralen Fileserver hat, dass ein Host an der VM arbeitet und sich ein zweiter Host (nur anschauend) dazuschaltet?

                        Nein. Die VM simuliert eine komplette Maschine. Du kannst auch nicht zwei identische Mainboards parallel schalten und hoffen, dass da etwas anderes entsteht als Hitze und Rauch.

                        Die VM-Host-Software erlaubt den Zugriff auf die Konsole (die virtuelle Grafikkarte / Maus / Tastatur), je nach Software kannst Du entweder eine Konsole oder mehrere parallel haben. Alle sehen den selben Schirm, Maus und Tastatur arbeiten parallel (als ob Du einen größeren Stapel Mäuse und Tastaturen per USB angeschlossen hättest).

                        VMware hat eine eigene Lösung, VirtualBox nutzt entweder einen VNC-Server (Open Source Edition) oder einen erweiterten Remote Desktop Server ("normale" Version). Bei VirtualBox ist paralleler Zugriff möglich, bei VMware habe ich das noch nicht probiert.

                        Unabhängig davon kannst Du in der VM wie auf einer realen Maschine einen Fernwartungsdienst laufen lassen, wie z.B. VNC oder Remote Desktop. Damit kannst Du wie auf einer realen Maschine arbeiten.

                        Das einzige Sicherheitsrisiko ist ein zusätzlicher Weg aus dem mobilen Rechner heraus ins Internet [...]

                        Das wird schwierig sein. Ich wähle mich Beispiel mit einem UMTS-Stick mobil ein. (Ich wäre Internetfähig und könnte jegliche Malware empfangen). Nun soll es sicherheitshalber so sein, dass ich mich per VPN in das interne Netze einwähle und die Internetverbindung über das UMTS-Stick quaisi blockiert wird und ich nur noch über das interne Netz surfen kann. (Oder habe ich da etwas falsch verstanden?)

                        Der VPN-Client sorgt (bei richtiger Konfiguration) dafür, dass Dein Rechner den Weg an der VPN-Verbindung vorbei ins Internet komplett vergißt, so lange die VPN-Verbindung besteht. Meistens stumpf dadurch, dass (fast) alle Routen gelöscht und die Default Route auf die VPN-Verbindung geschaltet wird. Der Weg ins Internet wird dann über die Firewall in der Firma gefiltert.

                        Wenn ich alles gelernt und verstanden habe, kann ich dann andere Mitarbeiter einweisen.

                        Hmmm, vielleicht baust Du das notwendige Wissen zusammen mit Deinem zukünfigen Stellvertreter auf? Damit könntet ihr wenigstens teilweise parallel arbeiten und die Projekte damit schneller durchziehen.

                        (Durch die Dokumentation wird es dann auch leichter gehen, bzw. die Einweisung sich der Mitarbeiter nicht merken muss, sondern Hauptsache, er hat es technisch verstanden.)

                        Wir haben einen "roten Ordner". Der einzige bunte Ordner im Regal. Darin sind einfache Schritt-für-Schritt-Anleitungen für jedes System, um im Katastrophenfall das jeweilige System zu reanimieren oder sogar komplett neu aufzusetzen. Anleitungen nach dem Motto "Hirn aus, Anleitung Schritt für Schritt abarbeiten", so dass notfalls auch der Hausmeister die Systeme wieder zum Laufen bringen kann.

                        Kann ich nur zur Nachahmung empfehlen.

                        Denn gerade wenn es richtig brennt, und das Adrenalin literweise aus den Ohren läuft, spielt uns die Biochemie gerne mal üble Streiche. Eine in Ruhe getestete Anleitung kann da Ruhe und Sicherheit reinbringen. Und im blödsten Fall, wenn man gerade am anderen Ende der Welt ist, setzt man tatsächlich Hausmeister oder Putzfrau mit einem Telefon in der Hand vor den Server und läßt sie eine Anleitung aus dem "Roten Ordner" abarbeiten.

                        Oder, wir stellen einen berufserfahrenen Mitarbeiter ein und ich werde der Stellvertreter und ich werde angelernt :-)

                        Auch ein Plan.

                        A: "Deklinieren Sie 'delegieren'"

                        B: "Ich delegiere."

                        A: "Und weiter?"

                        B: "Weiter habe ich es noch nie gebraucht."

                        ;-)

                        Warum also nicht. Wenn Du EDV-mäßig einen guten Überblick hast, und Dich mit einer reinen Leitungsfunktion anfreunden kannst, dann werde Abteilungsleiter der EDV und besorg Dir für die Einzelprojekte Spezialisten, entweder als externe Dienstleister oder als Angestellte. Du bist dann natürlich derjenige, der das Chaos überblicken muß, und der den Kopf dafür hinhält, wenn etwas schief geht.

                        Das kann sehr gut funktionieren, kann aber auch gründlich in die Hose gehen. "Managing programmers is like herding cats". Deine Aufgabe ist es, den Katzen das Leben so angenehm wie möglich zu machen, mit so wenig Druck und Störungen von außen wie nötig. Du mußt zwischen Coder-Fachchinesisch, Management-Fachchinesisch und dem wirren Gebrabbel der Kunden übersetzen und vermitteln. Und Du mußt filtern. Nicht jeder Anschiß vom Geschäftsführer muß zum Coder durchschlagen, und nicht jedes Code-Detail muß dem Geschäftsführer vorgelegt werden.

                        Mein erster EDV-Leiter war so ein Mensch, und ich vermisse so einen Leiter in meinem aktuellen Job sehr. Ein Software-Frickler ohne Plan von Management ist auf der Stelle einfach eine Fehlbesetzung, genauso wie ein Manager ohne Ahnung von EDV.

                        Und übrigens: Die Support-Hotline hat bei den Entwicklern und Code-Sklaven nichts verloren. Es ist extrem störend, alle paar Minuten aus der Konzentration gerissen zu werden. Und es dauert dann mindestens eine halbe Stunde, bis man wieder "drin" ist. Mit nur fünf Anrufen ist ein ganzer Tag verloren, und am Ende des Tages ist der Kollege nur noch genervt. Sorg' dafür, dass die Leute _ungestört_ arbeiten können.

                        Alexander

                        --
                        Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                        1. Hi,

                          • DMS

                          Gut.

                          • Fileserver

                          Böse. (Weißt schon ...)

                          Jep. Aber, man braucht ja trotzdem Speicherplatz für bestimtme Sachen, die nicht so recht in eine DMS passen.
                          Wo würdest du die netzwerkfähigen (gemeinsam genutzten) Programme (Bsp. Groupware oder sonstige Software) installieren? Eher in einem gemeinsamen Bereich oder einfach dort, wo es während des Installations vorgeschlagen wird?

                          Ansonsten gibt es noch wenige Dateien, die ich derzeit nur auf Fileserver platzieren würde. Bsp. mdb-Datei der Buchhaltungssoftware für Inventar oder Allgemein die Dateien Buchhaltungssoftware, Video-Tutorials die sehr riesig sind (pdf-Tutorials würden bzgl. der Größe gut in die DMS passen), Installationen/Images oder auch die Image eines VM's müssen ja irgenwo abgelegt werden, anstatt alles in den Pfaden des Programms zu lassen.

                          Bisher habe ich vorerst nach Open Source DMS Programmen gesucht. Passend wäre über eine Weboberfläche. Wie bereits aber erwähnt, wären die Workflows noch etwas gebrochen, da man per Weboberfläche eine bestimmte Datei herunterladen müsste, editieren und erneut hoch laden.) (Es gibt zwar gute DMS, in denen Office-Produkte eingebettet sind, trotzdem wäre MS Office/OpenOffice sicherlich nur ein Teil an Programmen, die man benutzt.
                          Bsp. erzeugen von Angeboten und Rechnungen mit der Buchhaltungssoftware. Ich müsste die Rechnung erzeugen, an den Kunden schicken und falls ich es evtl. archivieren will, dann in die DMS hochladen. Oder allgemeine Diagramme (Netzwerkdiagramm, Aktivitätsdiagramme, MindMaps), die man von der DMS herunterladen müsste, editieren, speichern und die Änderung herunterladen. Ich habe heute aber dies gefunden, um ein Dateisystem einzubinden:
                          http://www.agorum.com/startseite/produkte/zusatzmodule-fuer-agorum-core/agorum-core-file-adaptor-dateisystem-dateiserver-einbinden.html

                          Das schaue ich mir bei Gelegenheit mal genauer an.

                          Vermutlich wirst Du früher oder später einen Transfer-Ordner/-Laufwerk einrichten, auf dem jeder schreiben darf, ohne jede Rechteprüfung. Darum kommt man kaum herum; aber damit der Ordner nicht zu einer Müllhalde oder einem inoffiziellen Archiv ausartet, packst Du gleich am ersten Tag zwei Dinge dazu:

                          Coole Idee, wenn man nicht so sensible Daten transferieren will, ansonsten würde man die Datei direkt per Email verschicken. Ein Dokument würde man ja über die DMS machen mit den Rechten.

                          (-  CRM weiß ich noch nicht. Interessant wäre es sicherlich, wenn ein Kunde anruft und man sofort die älteren Kommunikationen und Dokumentationen aufschlagen kann)

                          Guter Plan. Gekoppelt mit der Telefonanlage poppt die Information schon auf dem Supporter-Bildschirm auf, sobald der Anrufer seine Rufnummer übermittelt.

                          Das DMS kannst Du z.B. auch mit den Kunden(nummern) verschlagworten bzw. pro Kunde eine Ordnerstruktur anlegen.

                          Auch im Bugzilla geht das über entsprechende Custom Fields.

                          (- Ideen könnte man evtl. über Bugzilla evtl. managen, wenn es sich kategorisieren lässt)

                          Exakt dafür ist Bugzilla da. "Bugs" im Bugzilla-Jargon sind weit mehr als nur Fehler in der Software. Auch Verbesserungen und neue Features werden als Bugs getrackt.

                          Ja, wenn man in Bugzilla bestimmte Anfragen (Idee oder Bug) an einen bestimmten Benutzerkreis senden/anzeigen kann und die Tickets evtl. im Nachhinein für andere Benutzerkreise sichtbar/verschieben kann, dann habe ich fast mein Produkt gefunden.
                          Wenn dann noch die DMS schön strukturiert und mit Informationen gefüllt ist, bräuchte man fast keine CRM mehr. (Dann wären alle Dokumente schnell auffindbar). Die Email-Konversationen müsste ich dann noch schauen, wie man dies managed bzw. handhabt, da es ja hier keine Zusätzlichen Meta-Informationen in der Groupware gibt.

                          Ich würde dann Bugzilla nicht nur für Fehler und Verbesserungen in Bezug auf Entwicklungsprojekte benutzen, sondern würde alles dann hier zusammenfliesen lassen, Bsp. wenn sich Kunden beschweren, weil sie über ein Webshop (in Zukunft), eine falsche Lieferung erhalten haben oder sonstiges.

                          Die Fritzbox hat ab Werk einen VPN-Server. AVM dokumentiert die Einrichtung in der FAQ, für einzelne Rechner, für ganze Netze und für überteuertes Obst. Security Tokens gibt's nicht, und auch das Management ist eher spärlich, aber das VPN kostet nichts extra. Audit kannst Du auch mal knicken.

                          http://www.wehavemorefun.de/fritzbox/index.php/Main_Page kennst Du?

                          Danke, sehr schöner Link. Statt aber das VPN auf Router-Ebene, könnte man ja sicherlich eine VPN-Software im Server installieren:
                          http://openvpn.net/index.php/open-source/documentation/howto.html

                          Ja. Je nach dem, wie viele Arbeitsplätze Du hast. Installations-Images und erst recht eine Software-Verteilung sind erst ab einer gewissen Größe sinnvoll, denn es ist wesentlich mehr Aufwand, Software in eine Software-Verteilung zu quetschen als sie stumpf auf einem einzelnen oder auch zwei oder drei Rechnern zu installieren. Ab einer gewissen Größe kehrt sich das dann um, die vorbereitete Anwendungssoftware wird einfach für User oder Gruppen zentral freigeschaltet und dann beim nächsten Login vollautomatisch installiert.

                          Ja klar. Für unseren kleinen Laden wäre das zu aufwendig und nicht lohnenswert. Wobei mir die Themen (egal was du ansprichst) sehr gefallen. Hier will ich mich nach dem Projekt auch etwas einlesen und lernen, da ich es sehr interessant finde und garkeine Ahnung habe, wie so etwas realisiert wird. Sprich, wie die Dateien zur Installation bereitgestellt werden, wie die Verwaltung abläuft, um die Installationen/Pakete für bestimmte Workstations freizuschalten oder wie sich die Workstation dann die Installationen abholt und ausführt. (Bei größeren Unternehmen darf man die Images ja auch nicht nur zentral vorhalten, denn bei Zugriff von vielen Workstations hätte man nen Flaschenhals im Netzwerk zum bereitstellenden Server)

                          Images als Backup für die System-Platte/-Partition sind eine völlig andere Geschichte, und gerade bei Windows einigermaßen sinnvoll.

                          Genau. Das würde eher zutreffen, wenn man mal eine Workstation samt Betriebssystem eingerichtet hat, diese auch zu sichern, um bei Bedarf komfortabel das System wieder so herzustellen, wie man es gesichert hatte.

                          Gib dem Grafiker eine flotte Maschine mit RAM satt, einer kräftigen Grafikkarte und ein bis zwei großen Monitoren. Je nach Software wäre eine flotte Platte / SSD für Arbeitsdateien auch nicht schlecht. Und aus eigener Erfahrung: Grafiker küssen Dir die Füße, wenn Du ihnen einen Obstkorb anreichst.

                          Statt einem Obstkorb, stelle ich selber einen Windows Rechner zusammen, wo einfach die Daten um einiges größer ist als ein Obstkorb, was den Geschwindigkeits-, / Wohlfühldefizit bzw. die Markenbegeisterung wettmacht. Bsp. 16GB RAM, SSD, schnelle SATA/HDD usw.

                          VMware hat eine eigene Lösung, VirtualBox nutzt entweder einen VNC-Server (Open Source Edition) oder einen erweiterten Remote Desktop Server ("normale" Version). Bei VirtualBox ist paralleler Zugriff möglich, bei VMware habe ich das noch nicht probiert.

                          Ja, bei VNC (Open Source Edition) kann man dann gleichzeitig/parallel zugreifen, bei Remote Desktop Server (Vermutlich über RDP) wird dann der aktuelle Benutzer vermutlich gesperrt.
                          (Eigentlich authentifiziert man sich ja bei RDP mit dem Benutzer-Account bei VNC mit einem neu angelegten, bsp. Support-Account. Bei einem parallelen Login in der Open Source Edition würde das dann vermutlich die Virtualisierungssoftware (Virtualbox) übernehmen.

                          Unabhängig davon kannst Du in der VM wie auf einer realen Maschine einen Fernwartungsdienst laufen lassen, wie z.B. VNC oder Remote Desktop. Damit kannst Du wie auf einer realen Maschine arbeiten.

                          Ja, oder so.

                          Hmmm, vielleicht baust Du das notwendige Wissen zusammen mit Deinem zukünfigen Stellvertreter auf? Damit könntet ihr wenigstens teilweise parallel arbeiten und die Projekte damit schneller durchziehen.

                          Ja, von Tag zu Tag häufen sich immer mehr Themen, in die ich mich derzeit einlese. Daher wird es besser sein, dass ich mich mit einem Stellvertreter (und da habe ich schon jemand auf Teilzeit zur Verfügung gestellt bekommen) gemeinsam einarbeite und recherchiere.

                          Ich finde deinen restlichen Posting auch sehr interessant, was sehr von Erfahrung zeugt.

                          Viele Grüße und nochmals vielen vielen Dank für die perfekten Tipps und Anregungen. Ich kann mich nicht genug bedanken.

                          Grüße

                          1. Moin Moin!

                            Aber, man braucht ja trotzdem Speicherplatz für bestimtme Sachen, die nicht so recht in eine DMS passen.

                            Richtig.

                            Wo würdest du die netzwerkfähigen (gemeinsam genutzten) Programme (Bsp. Groupware oder sonstige Software) installieren?

                            Unter Windows schmeißt man die Software typischerweise auf die lokale Platte, schlicht und ergreifend, weil sehr viel Software bei der Installation jede Menge Änderungen an der Registry vornimmt. Unixe können /usr und /opt von einem zentralen Server mounten, bei Bedarf sogar / (mit einigen Tricks beim Booten; Stichwort Initial RAMDisk). Konfiguriert wird meistens über Text- oder XML-Dateien an fest vereinbarten Stellen (/etc, /home/user/.foo).

                            Haken sind natürlich Updates. Bei Unixen sollte eine Runde rsync über /etc reichen, bei Registry-abhängigen Anwendungen artet das in Arbeit aus.

                            Alternativer Ansatz: Citrix, quasi ein aufgebohrter Remote Desktop Client, die eigentliche Anwendung läuft auf einem wahnsinnig fetten Server. Unixe erledigen ähnliches mit X11, das bereits "Out of the Box" netzwerkfähig ist (XDMCP, xhosts, ssh mit X11 forwarding).

                            Eher in einem gemeinsamen Bereich oder einfach dort, wo es während des Installations vorgeschlagen wird?

                            Wenn ich viel Software aus dem Netz laufen lassen würde, hätte ich für Programme eine eigene Freigabe, auf die Programm-Installateure (Admins) schreiben dürfen, normalsterbliche User aber nicht.

                            auf Fileserver platzieren [...] Bsp. mdb-Datei der Buchhaltungssoftware für Inventar

                            Warum hat die keinen "richtigen" Datenbank-Server? MDB-Dateien auf Fileservern sorgen für Dauerbespaßung bei den Admins und Supportern.

                            oder Allgemein die Dateien Buchhaltungssoftware,

                            s.o.

                            Video-Tutorials die sehr riesig sind (pdf-Tutorials würden bzgl. der Größe gut in die DMS passen),

                            Naja, vom Prinzip her gehören auch die Videos ins DMS. Da wäre halt die Frage, wie viele Tutorials Du als Video hast, und ob das DMS die Videos per HTTP streamen kann (à la Youtube).

                            Installationen/Images oder auch die Image eines VM's müssen ja irgenwo abgelegt werden, anstatt alles in den Pfaden des Programms zu lassen.

                            Richtig, das wäre ein sehr exklusiven Fileserver für die EDV. Dort lägen Installationsimages, sämtliche Installer, Treiber-CDs.

                            Wenn Du VMs zwischen verschiedenen Servern hin und her springen lassen willst, geht das natürlich auch über einen Fileserver (exklusiv für die VM-Server) oder ein SAN.

                            [...] Open Source DMS [...] Weboberfläche. [...] Datei herunterladen müsste, editieren und erneut hoch laden.) (Es gibt zwar gute DMS, in denen Office-Produkte eingebettet sind, trotzdem wäre MS Office/OpenOffice sicherlich nur ein Teil an Programmen, die man benutzt.

                            Richtig. Ein DMS mit eigenem "Office-Paket" halte ich für eine schlechte Idee, Du willst eigentlich die stinknormale Office-Software benutzen, die Du schon hast. Da wären Plugins für die Office-Software oder das Betriebssystem angebrachter.

                            Bsp. erzeugen von Angeboten und Rechnungen mit der Buchhaltungssoftware. Ich müsste die Rechnung erzeugen, an den Kunden schicken und falls ich es evtl. archivieren will, dann in die DMS hochladen.

                            Automatisierung heißt das Zauberwort. DMS und Buchhaltung sollten sich auf eine Schnittstelle einigen können, über die die jede verschickte Rechnung automatisch archiviert wird. Analog für Angebote.

                            Open Source hat da den großen Vorteil, dass man sich so eine Schnittstelle auch mal selbst bauen kann. Mit dem Risiko, dass man das System so massiv umbaut, dass ein Umstieg auf die Folgeversion fast unmöglich wird. Man sollte sich also genau überlegen, wie weit man das Customizing treibt. Bei Open Source kann man versuchen, die eigenen Anpassungen in das Projekt einfließen zu lassen, das nutzt nicht nur allen, sondern macht eine inkompatible Folgeversion auch etwas unwahrscheinlicher.

                            Vermutlich wirst Du früher oder später einen Transfer-Ordner/-Laufwerk einrichten, auf dem jeder schreiben darf [...]

                            Coole Idee, wenn man nicht so sensible Daten transferieren will, ansonsten würde man die Datei direkt per Email verschicken.

                            Denk auch mal über Ablagen für Teams und für Projekte nach. Das ist aber eher ein Fall für das DMS als für den Fileserver.

                            Ein Dokument würde man ja über die DMS machen mit den Rechten.

                            Genau. Das DMS bringt fast immer irgendetwas Workflow-artiges mit. Das muß natürlich zu eurer Arbeitsweise halbwegs passen. Anders herum bringt auch Workflow-Software meistens ein kleines DMS mit.

                            Ja, wenn man in Bugzilla bestimmte Anfragen (Idee oder Bug) an einen bestimmten Benutzerkreis senden/anzeigen kann und die Tickets evtl. im Nachhinein für andere Benutzerkreise sichtbar/verschieben kann, dann habe ich fast mein Produkt gefunden.

                            Bugzilla ist primär nach Produkten strukturiert, und normalerweise ist alles für alle sichtbar. Aber: Groups allow for separating bugs into logical divisions. Groups are typically used to isolate bugs that should only be seen by certain people.

                            Wenn dann noch die DMS schön strukturiert und mit Informationen gefüllt ist, bräuchte man fast keine CRM mehr. [...] Die Email-Konversationen müsste ich dann noch schauen, wie man dies managed bzw. handhabt, da es ja hier keine Zusätzlichen Meta-Informationen in der Groupware gibt.

                            Naja, ein paar Meta-Informationen gibt es schon, wenn Du gemeinsame Mail-Ordner benutzt, nämlich die Namen der Mail-Ordner selbst. Und natürlich die Standard-Meta-Daten aus den Mail-Headern. Externe Mail-Adressen (From bzw. To/CC) und Kunden bzw. Lieferanten sind nahezu deckungsgleich, die Verbindung zwischen Mail-Adressen, Telefonnummern und natürlich den Kundennummern steckt im zentralen Adressbuch (ein Fall für LDAP oder ein RDBMS).

                            Die Telefon-Popup-Fenster-Funktion kann natürlich auch gleich Hyperlinks zu Suchergebnis-Seiten im DMS und im Webmailer anbieten, nachdem sie aus der Telefonnummer mit Hilfe des Adressbuchs eine Hand voll Kundennummern gemacht hat. Richtig cool wäre natürlich eine Suchfunktion, die DMS und Mails parallel durchsuchen kann. Erster Ansatz: Ein relativ blödes CGI, das hintenrum parallel zwei Suchen startet und die eingesammelten Ergebnisse aus DMS und Mails einigermaßen aufgehübscht auf eine Ergebnisseite schreibt. "Nullter" Ansatz: Ein Frameset, dass seinen Query-String an die beiden Such-Funktionen weiterreicht.

                            Ich würde dann Bugzilla nicht nur für Fehler und Verbesserungen in Bezug auf Entwicklungsprojekte benutzen, sondern würde alles dann hier zusammenfliesen lassen, Bsp. wenn sich Kunden beschweren, weil sie über ein Webshop (in Zukunft), eine falsche Lieferung erhalten haben oder sonstiges.

                            Wenn Du den Bugzilla weit genug unterteilst, geht das. Aber ich glaube nicht, dass Deine Entwickler wissen wollen, dass Hein Meier statt einer Packung Kopierpapier eine Euro-Palette Kopierpapier bekommen hat. Und die Verkäufer dürften sich nicht die Bohne dafür interessieren, dass man mit int WinMain(HINSTANCE,HINSTANCE,LPSTR,int) unter Solaris nicht weit kommt.

                            Vielleicht teilst Du das tatsächlich auf zwei Instanzen auf, eine für Probleme mit der Software selbst (Entwicklung, Support, Administration) und eine für die Arbeit mit der Software (Verkauf, Versand, Reklamation, Retouren).

                            Die Fritzbox hat ab Werk einen VPN-Server. [...] Statt aber das VPN auf Router-Ebene, könnte man ja sicherlich eine VPN-Software im Server installieren: http://openvpn.net/index.php/open-source/documentation/howto.html

                            Ja, das geht auch. Aber dann mußt Du allen Rechnern oder wenigstens dem Router mitteilen, dass der Weg zu den VPN-CLients über den Server führt. VPN innerhalb des Routers macht das Leben einfacher, weil man dann überall mit der Default Route auskommt.

                            Ggf. kaufst Du einen etwas kräftigeren Router, wenn Du VPN sehr massiv einsetzt. Da gibt es etliche Appliances, die quasi ein Rundum-Sorglos-Paket bieten.

                            Da Du Dir zutraust, PCs selbst zusammen zu schrauben, solltest Du Dir auch mal den IPcop ansehen. Standard-PC (alt oder mit Stromspar-CPU) plus ein paar Netzwerk-Karten bringt eine richtig gute Firewall mit einmal Internet, DMZ, WLAN, LAN, VPN Host-to-Net (Road Warrior / Home Office) und Net-to-Net (Standort-Kopplung), per OpenVPN oder IPsec, HTTP Proxy, NTP-Server, usw.

                            [...] Installations-Images und [...] Software-Verteilung [...]

                            [...] Hier will ich mich nach dem Projekt auch etwas einlesen und lernen, da ich es sehr interessant finde und garkeine Ahnung habe, wie so etwas realisiert wird. Sprich, wie die Dateien zur Installation bereitgestellt werden,

                            Fileserver ;-) Oder ein eigenes File-Transfer-Protokoll innerhalb der Verteilungssoftware (HTTP, FTP, propritär).

                            wie die Verwaltung abläuft,

                            Im wesentlichen ein Lager voll vorbereiteter Software und eine Anbindung an die Benutzerverwaltung.

                            Die große Kunst ist, die Software so vorzubereiten, dass sie vollautomatisch installiert werden kann, ohne dass der User eingreifen muß oder eingreifen kann.

                            Es ist unglaublich, wie viele verschiedene Installer es gibt, und wie kaputt die Dinger manchmal sind. Manchmal gibt es einfach keinen anderen Weg, als eine große Warnung der Art "FINGER WEG" auf den Schirm zu bringen und dann den normalen Installer per AutoIt o.ä. automatisiert durchzuklicken.

                            um die Installationen/Pakete für bestimmte Workstations freizuschalten

                            DB-Eintrag, XML-Datei, INI-Datei ...

                            oder wie sich die Workstation dann die Installationen abholt und ausführt.

                            Login-Script für User (mit wenig Rechten), stubst einen priviligierten Service an, der die eigentliche Installation übernimmt. Danach wird das Login-Script fortgesetzt, ggf. wird noch mit User-Rechten ein Customizing vorgenommen (z.B. Mail-Adresse in den Mailer eintragen), bevor die Kontrolle an den Benutzer übergeben wird.

                            (Bei größeren Unternehmen darf man die Images ja auch nicht nur zentral vorhalten, denn bei Zugriff von vielen Workstations hätte man nen Flaschenhals im Netzwerk zum bereitstellenden Server)

                            Die Images für Workstations werden typischerweise zentral oder pro Standort vorgehalten. Eine WS installiert man ja eher selten neu. Für die Vorbereitung neuer Hardware kann man auch ein separates Labor-Netzwerk nutzen. Im Image ist das "nackte Windows" und der Client für die Software-Verteilung, optional auch schon eine Vorinstallation der "Software für alle" (Office, Browser, Mailer).

                            Die Images für Thin Clients sind eher klein, ein alter Igel kommt mit 16 oder 64 MByte aus; Thinstation braucht etwa 8 MByte, je nach gewählten Optionen.

                            Igel haben das Image auf einer lokalen CF-Karte oder einem Disk-On-Chip-IC. Nur wenn man ein Firmware Update macht, wird das Image auf die Igel übertragen. Thinstation kann per PXE oder von einem lokalen Medium (HDD, CF, USB) starten.

                            Schau Dir mal Unattended an. Das startet von Null, kommt aber ohne maschinenspezifisches Image aus.

                            (Eigentlich authentifiziert man sich ja bei RDP mit dem Benutzer-Account bei VNC mit einem neu angelegten, bsp. Support-Account. Bei einem parallelen Login in der Open Source Edition würde das dann vermutlich die Virtualisierungssoftware (Virtualbox) übernehmen.

                            Der Zugriff auf die Konsole läuft immer per Zugriff auf den Host, nicht auf den Guest. VirtualBox erlaubt "concurrent Sessions" per RDP, so kann man auch von 100 Rechnern auf die Konsole einer einzigen VM zugreifen. Siehe Kapitel 7.

                            Ich finde deinen restlichen Posting auch sehr interessant, was sehr von Erfahrung zeugt.

                            Naja, nach vier oder fünf Arbeitgebern und einer Weile als Selbständiger sieht man irgendwann, was funktioniert und was nicht.

                            Alexander

                            PS: Ja, ICH BIN GESCHWÄTZIG, liebe nörgelige Forumssoftware. grummel

                            --
                            Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                            1. Moin Moin!

                              Weil's gerade halbwegs zum Thema paßt: Linus Torvalds’s Lessons on Software Development Management

                              Alexander

                              --
                              Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                            2. Hi,
                              hab mich diesmal leider etwas verspätet.
                              Ein paar Anforderungen habe ich definiert. Sei es für bestimmte Software, Hardware oder auch irgendwelche Optimierungen im Geschäftsprozess oder auch Einstellungen an der Telefonanlage usw. (Ich hatte mir überlegt, ob ich alles in ein Lastenheft hereinknallen könnte und darauf dann auch mit einem Pflichtenheft antworten. Wie dem auch sei. Das ist gerade nicht so wichtig :-)

                              Haken sind natürlich Updates. Bei Unixen sollte eine Runde rsync über /etc reichen, bei Registry-abhängigen Anwendungen artet das in Arbeit aus.

                              Auf Registry-Abhängige Software bin ich derzeit noch nicht gestoßen, bzw. mich nicht damit befasst oder sagen wir schlicht und ergreifend keine Ahnugn davon, ob und welche Software da Einstellungen vornimmt in den Registry-Tabellen/Einstellungen

                              Alternativer Ansatz: Citrix, quasi ein aufgebohrter Remote Desktop Client, die eigentliche Anwendung läuft auf einem wahnsinnig fetten Server. Unixe erledigen ähnliches mit X11, das bereits "Out of the Box" netzwerkfähig ist (XDMCP, xhosts, ssh mit X11 forwarding).

                              Citrix fand ich cool. Da hatte ich in einem Krankenhaus einen Webbrowser geöffnet. Nach einem Login über den Webbrowser poppte dann eine externe Anwendung auf, als würde es auf dem PC, von dem ich aufgerufen habe, laufen.
                              In der Schule hatten wir damals unter Linux auch versucht irgendwelche Umlenkungen auf entfernte Rechner zu machen. (Das ging aber nur für bestimmte Programme, die sich umlenken ließe, bzw. irgendwie integriert waren. X-Windows-System - X11. Da schaue ich aber nochmal in die Unterlagen)

                              Warum hat die keinen "richtigen" Datenbank-Server? MDB-Dateien auf Fileservern sorgen für Dauerbespaßung bei den Admins und Supportern.

                              Ja, ist halt von Lexware das Produkt. Das kann ich leider nicht beeinflussen :-)

                              Naja, vom Prinzip her gehören auch die Videos ins DMS. Da wäre halt die Frage, wie viele Tutorials Du als Video hast, und ob das DMS die Videos per HTTP streamen kann (à la Youtube).

                              Ja, streamen ist ein gutes Stichwort. Ich habe bisher zwar noch keine OpenSource DMS gefunden, bei der man auf manche Dateien, die auf dem Fileserver praktisch DMS Funktionen drüber legen, also "Ver-Meta-Informationieren" :-) und dann normal über Nautilus weiterhin aufrufen. Aber wenn ich hier ein paar gute DMS gefunden habe, dann wäre das egal mit den Videos reinladen.

                              Richtig, das wäre ein sehr exklusiven Fileserver für die EDV. Dort lägen Installationsimages, sämtliche Installer, Treiber-CDs.

                              Wenn Du VMs zwischen verschiedenen Servern hin und her springen lassen willst, geht das natürlich auch über einen Fileserver (exklusiv für die VM-Server) oder ein SAN.

                              Vom Budget her, wird es für die kleine Firma ein einziger zentraler Server sein, der dann eben alles beinhaltet. Sei es Fileserver, DMS, SVN, Intranet-Webseite, Groupware usw. (Außer, ich nehme paar andere alten Kisten falls ich welche kriege, die für einen bestimmten Zweck missbraucht werden könnten). Aber, ansonsten kommt alles am Anfang auf eine Kiste. (Und dann kann man bei größeren Anforderungen versuch Schritt für Schritt weiter auszubauen, bzw. bestimmte Funktionen/Software separieren)

                              Automatisierung heißt das Zauberwort. DMS und Buchhaltung sollten sich auf eine Schnittstelle einigen können, über die die jede verschickte Rechnung automatisch archiviert wird. Analog für Angebote.

                              Open Source hat da den großen Vorteil, dass man sich so eine Schnittstelle auch mal selbst bauen kann. Mit dem Risiko, dass man das System so massiv umbaut, dass ein Umstieg auf die Folgeversion fast unmöglich wird. Man sollte sich also genau überlegen, wie weit man das Customizing treibt. Bei Open Source kann man versuchen, die eigenen Anpassungen in das Projekt einfließen zu lassen, das nutzt nicht nur allen, sondern macht eine inkompatible Folgeversion auch etwas unwahrscheinlicher.

                              Ja, in Java bin ich etwas fit. Heute habe ich einige DMS Produkte getestet. Sobald ich etwas gute und Anpassungen notwendig sind, werde ich Änderungen/Erweiterungen auf jedenfall über, bzw. mit der Community machen.

                              Bugzilla ist primär nach Produkten strukturiert, und normalerweise ist alles für alle sichtbar. Aber: Groups allow for separating bugs into logical divisions. Groups are typically used to isolate bugs that should only be seen by certain people.

                              Hammer. Das hört sich Perfekt an.

                              Naja, ein paar Meta-Informationen gibt es schon, wenn Du gemeinsame Mail-Ordner benutzt, nämlich die Namen der Mail-Ordner selbst. Und natürlich die Standard-Meta-Daten aus den Mail-Headern. Externe Mail-Adressen (From bzw. To/CC) und Kunden bzw. Lieferanten sind nahezu deckungsgleich, die Verbindung zwischen Mail-Adressen, Telefonnummern und natürlich den Kundennummern steckt im zentralen Adressbuch (ein Fall für LDAP oder ein RDBMS).

                              Ein zentraler Adressbuch wäre gut. Bisher habe ich aber das Problem mit dem Adressbuch in der Buchhaltung. Hier habe ich noch keine Software, die auf eine zentrale Stelle zugreifen kann. (Lexware, Wiso und Co.). D.h. ich müsste doppelt Adressen pflegen.

                              Die Telefon-Popup-Fenster-Funktion kann natürlich auch gleich Hyperlinks zu Suchergebnis-Seiten im DMS und im Webmailer anbieten, nachdem sie aus der Telefonnummer mit Hilfe des Adressbuchs eine Hand voll Kundennummern gemacht hat. Richtig cool wäre natürlich eine Suchfunktion, die DMS und Mails parallel durchsuchen kann. Erster Ansatz: Ein relativ blödes CGI, das hintenrum parallel zwei Suchen startet und die eingesammelten Ergebnisse aus DMS und Mails einigermaßen aufgehübscht auf eine Ergebnisseite schreibt. "Nullter" Ansatz: Ein Frameset, dass seinen Query-String an die beiden Such-Funktionen weiterreicht.

                              Super Idee. Wenn ein Zugriff auf DMS und Webmailer so ohne weiteres Möglich ist, dann freue ich mich schon sehr sehr hier zu experimentieren. Geil :-)

                              Wenn Du den Bugzilla weit genug unterteilst, geht das. Aber ich glaube nicht, dass Deine Entwickler wissen wollen, dass Hein Meier statt einer Packung Kopierpapier eine Euro-Palette Kopierpapier bekommen hat. Und die Verkäufer dürften sich nicht die Bohne dafür interessieren, dass man mit int WinMain(HINSTANCE,HINSTANCE,LPSTR,int) unter Solaris nicht weit kommt.

                              Vielleicht teilst Du das tatsächlich auf zwei Instanzen auf, eine für Probleme mit der Software selbst (Entwicklung, Support, Administration) und eine für die Arbeit mit der Software (Verkauf, Versand, Reklamation, Retouren).

                              Ja, ich hätte sonst bestimmte Tickets nur für bestimmte Benutzerkreise (wie oben gepostet) zugänglich machen, dann würde man von den anderen nichts mitkriegen. Da man ja die Autorisierung von mehreren Bugzillas zentral machen, installiere ich aber dann mehrere Instanzen und verschiedenen Links, dann wäre das so auch gut gelöst.

                              Da Du Dir zutraust, PCs selbst zusammen zu schrauben, solltest Du Dir auch mal den IPcop ansehen. Standard-PC (alt oder mit Stromspar-CPU) plus ein paar Netzwerk-Karten bringt eine richtig gute Firewall mit einmal Internet, DMZ, WLAN, LAN, VPN Host-to-Net (Road Warrior / Home Office) und Net-to-Net (Standort-Kopplung), per OpenVPN oder IPsec, HTTP Proxy, NTP-Server, usw.

                              Danke, habe ich garnicht gekannt.

                              Login-Script für User (mit wenig Rechten), stubst einen priviligierten Service an, der die eigentliche Installation übernimmt. Danach wird das Login-Script fortgesetzt, ggf. wird noch mit User-Rechten ein Customizing vorgenommen (z.B. Mail-Adresse in den Mailer eintragen), bevor die Kontrolle an den Benutzer übergeben wird.

                              Ja, das hört sich schon einmal verständlich für mich an. Danke :-)

                              Schau Dir mal Unattended an. Das startet von Null, kommt aber ohne maschinenspezifisches Image aus.

                              Ja, Igel und das schaue ich mir morgen mal etwas näher an.

                              Naja, nach vier oder fünf Arbeitgebern und einer Weile als Selbständiger sieht man irgendwann, was funktioniert und was nicht.

                              :-)))
                              Ja, manchmal bin ich leider auch etwas geschwätzig und das alles nur, weil mich so vieles fasziniert :-)

                              Grüße

                              1. Moin Moin!

                                Haken sind natürlich Updates. Bei Unixen sollte eine Runde rsync über /etc reichen, bei Registry-abhängigen Anwendungen artet das in Arbeit aus.

                                Auf Registry-Abhängige Software bin ich derzeit noch nicht gestoßen,

                                Geh mal davon aus, dass so ziemlich alles, was irgendwelche MS-Techniken oberhalb der Win32-API nutzt, in der Registry herumwühlt. ActiveX-Controls müssen in die Registry eingetragen werden, um nur ein Beispiel zu nennen. Es gibt diverse Tools, um die Änderungen an der Registry mitzuschneiden. Laß die mal mitlaufen, wenn ein Installer läuft und wenn das installierte Programm das erste mal startet.

                                Citrix fand ich cool. [...]

                                Citrix ist cool, so lange der Server genügend Reserven hat und das Netzwerk schnell genug ist. Bei meinem Brötchengeber kommen einige Citrix-Anwendungen vom anderen Ende der Republik über sehr dünne Leitungen, von einem ziemlich ausgelasteten Server. Und dann macht Citrix keinen Spaß mehr.

                                In der Schule hatten wir damals unter Linux auch versucht irgendwelche Umlenkungen auf entfernte Rechner zu machen. (Das ging aber nur für bestimmte Programme, die sich umlenken ließe, bzw. irgendwie integriert waren. X-Windows-System - X11. Da schaue ich aber nochmal in die Unterlagen)

                                Ganz brutal und fürchterlich unsicher: Zwei frische Linux-Kisten A und B, jeweils mit X11, im LAN. Einloggen auf A, "xhost +", "telnet B", "DISPLAY=A:0 xterm". xterm läuft auf B, erscheint auf A. *Alle* in diesem xterm gestarteten Anwendungen laufen auf B. Das funktioniert nur, weil "xhost +" alle Sicherungen ausschaltet. Per ssh mit X11 forwarding geht es auch sicher, ohne "xhost +", dann kümmert sich ssh auch um die DISPLAY-Variable.

                                XDMCP läuft etwas anders: Auf B mußt Du XDMCP explizit freischalten, abhängig vom Display Manager. Auf A startest Du X erst einmal manuell, entweder mit "X -query B" oder mit "X -broadcast". X11 selbst läuft auf A, wird aber komplett von B verwaltet. Der Window Manager und alle Anwendungen laufen auf B. Siehe auch XDMCP-Howto (schon etwas angestaubt).

                                Warum hat die keinen "richtigen" Datenbank-Server? MDB-Dateien auf Fileservern sorgen für Dauerbespaßung bei den Admins und Supportern.

                                Ja, ist halt von Lexware das Produkt. Das kann ich leider nicht beeinflussen :-)

                                Doch. Andere Software kaufen. Klar, das zieht wieder Schulungsbedarf und Datenmigration nach sich. Muß ja nicht sofort sein, sondern erst, wenn der Leidensdruck hoch genug ist.

                                Vom Budget her, wird es für die kleine Firma ein einziger zentraler Server sein [...] Außer, ich nehme paar andere alten Kisten [...]

                                Single Point of Failure.

                                Ich würde versuchen, wenigstens zwei Maschinen zu bekommen, die im Normalbetrieb nebeneinander laufen, im Notfall aber auch den Job der jeweils anderen Maschine übernehmen können. Wenn auf der Hardware im wesentlichen eine Virtualisierungssoftware läuft (sei es VMware ESX auf der nackten Hardware oder eine kleinere VMware / VirtualBox auf einem Host-OS), ist das manuelle Verschieben ziemlich schmerzfrei.

                                Vorhandene alte Maschinen weiter zu benutzen ist durchaus sinnvoll, wenn die Maschinen technisch ok sind. (Schöner Pratikanten-Job: Rechner putzen, aus drei Schrottkisten einen fitten Rechner bauen, ...) Für IPcop brauchst Du keinen nagelneuen PC, eine alte Gurke mit einem Software-RAID-1 ist mehr als genug. Der EDV-Fileserver kann auch ein alter Rechner sein, den Du mit ein paar großen Platten im SW-RAID aufpäppelst. Ebenso der Mail-Server. Der Webmailer könnte allerdings für einen wirklich alten Rechner zu viel sein. Der muß aber nicht zwingend auf der selben Maschine laufen wie der Mailserver. Ein Webmailer sollte zum Mailserver hin SMTP und IMAP4 sprechen, und nicht in irgendwelchen Interna herumfummeln.

                                Du erkennst das Prinzip? Alles, was in einer VM laufen kann, kann man auch auf dedizierte, alte Hardware schieben. Das senkt die Anforderungen an die neue Hardware, und damit die Kosten.

                                Ein Haken ist natürlich, dass echte Hardware das Verschieben auf andere Maschinen etwas erschwert. Und Du mußt natürlich auf jedem Mini-Server ein eigenes RAID und ein eigenes Backup installieren. Wobei Backup auch schlicht heißen kann, dass die Maschinen nachts alles per rsync auf den Fileserver schaffen, und nur der im Anschluß ein "richtiges" Backup auf externe Platten macht.

                                Hardware-Ausfälle sind nicht das größte Problem, wenn Du noch ein paar Ersatzteile auf Lager hast. Eine aktuelle x86-Linux-Distribution sollte sich eigentlich nicht daran stören, wenn du ihr ein anderes Mainboard oder eine andere Netzwerkkarte unterschiebst, auch wenn Du dabei von Intel auf AMD oder umgekehrt wechselst.

                                Und da kommt der zweite Haken: Schrauben ist langsamer als das Verschieben von VMs, und im "roten Ordner" auch wesentlich anspruchsvoller. Eine von vielen Gemeinheiten, die ich in einen roten Order schreiben würde, wäre die lästige Angewohnheit meiner Lieblingsdistribution, jeder neuen Netzwerkkarte einen neuen Namen zu geben, selbst wenn die alte Netzwerkkarte ausgebaut wurde, und damit die Netzwerk-Konfiguration auszuhebeln. Das ist durch Löschen einer einzelnen Datei und einen Reboot zu erschlagen. Nur ist das eben nicht offensichtlich.

                                Automatisierung heißt das Zauberwort. [...]

                                Open Source hat da den großen Vorteil, dass man sich so eine Schnittstelle auch mal selbst bauen kann. [...]

                                Ja, in Java bin ich etwas fit. Heute habe ich einige DMS Produkte getestet. Sobald ich etwas gute und Anpassungen notwendig sind, werde ich Änderungen/Erweiterungen auf jedenfall über, bzw. mit der Community machen.

                                Bugzilla [...]

                                Hammer. Das hört sich Perfekt an.

                                Cool. Klingt nach einem fast gelösten Problem. Du wirst also demnächst mal Bugzilla installieren und damit experimentieren.

                                Ein zentraler Adressbuch wäre gut. Bisher habe ich aber das Problem mit dem Adressbuch in der Buchhaltung. Hier habe ich noch keine Software, die auf eine zentrale Stelle zugreifen kann. (Lexware, Wiso und Co.). D.h. ich müsste doppelt Adressen pflegen.

                                Ich würde es mal etwas anders, böser formulieren: Deine Buchhaltungssoftware hat ein Problem mit dem Rest der Welt.

                                Vielleicht tauscht Du die mal gegen Software aus, die etwas kooperativer und netzwerkfähig ist?

                                Ansonsten wäre auch zu überlegen, entweder Änderungen aus dem zentralen Adressbuch automatisch in die Buchhaltung zu drücken (Access-Dateien kann man auch an der Buchhaltungssoftware vorbei beschreiben) oder (*schauder*) das Adressbuch der Buchhaltung als zentrales Adressbuch zu benutzen.

                                Die Telefon-Popup-Fenster-Funktion kann natürlich auch gleich Hyperlinks zu Suchergebnis-Seiten im DMS und im Webmailer anbieten, nachdem sie aus der Telefonnummer mit Hilfe des Adressbuchs eine Hand voll Kundennummern gemacht hat. Richtig cool wäre natürlich eine Suchfunktion, die DMS und Mails parallel durchsuchen kann. Erster Ansatz: Ein relativ blödes CGI, das hintenrum parallel zwei Suchen startet und die eingesammelten Ergebnisse aus DMS und Mails einigermaßen aufgehübscht auf eine Ergebnisseite schreibt. "Nullter" Ansatz: Ein Frameset, dass seinen Query-String an die beiden Such-Funktionen weiterreicht.

                                Super Idee. Wenn ein Zugriff auf DMS und Webmailer so ohne weiteres Möglich ist, dann freue ich mich schon sehr sehr hier zu experimentieren. Geil :-)

                                Die Details werden Dich in den Wahnsinn treiben. ;-)

                                Vergiß das Frameset am besen gleich wieder, das macht fast immer mehr Ärger als es wert ist. Das ist die absolute Notlösung, wenn gar nichts anderes geht.

                                Eine von vielen Gemeinheiten ist, dass Du Dich minimal am Webmailer, eigentlich auch am DMS, anmelden mußt. Und zwar nicht direkt, sondern "über Bande" im CGI. Du mußt Dich also am CGI anmelden, dass muß sich für Dich an beiden Systemen anmelden, und zwar ohne dass andere Sessions beendet werden. Single Sign On wäre da schön. Und irgendwelche APIs (JSON-RPC, XML-RPC, SOAP *schauder*, ...) an DMS und Webmailer, an die Scripte einfacher andocken können als an für Menschen bestimmte HTML-Seiten.

                                Siehe auch WWW::Mechanize und WWW::Scripter.

                                Da Du Dir zutraust, PCs selbst zusammen zu schrauben, solltest Du Dir auch mal den IPcop ansehen. Standard-PC (alt oder mit Stromspar-CPU) plus ein paar Netzwerk-Karten bringt eine richtig gute Firewall mit einmal Internet, DMZ, WLAN, LAN, VPN Host-to-Net (Road Warrior / Home Office) und Net-to-Net (Standort-Kopplung), per OpenVPN oder IPsec, HTTP Proxy, NTP-Server, usw.

                                Danke, habe ich garnicht gekannt.

                                Das scheint Dir öfter zu passieren. ;-)

                                Bei freshmeat.net findest Du jede Menge Software, die meiste davon Open Source oder wenigstens Freeware, für die unterschiedlichsten Zwecke, überwiegend für Unix und seltener für Windows oder Macs.

                                Schau Dir mal Unattended an. Das startet von Null, kommt aber ohne maschinenspezifisches Image aus.

                                Ja, Igel und das schaue ich mir morgen mal etwas näher an.

                                Igel sauber verarbeitet, robuste Gehäuse (bis auf die Front; wenigstens in den alten Serien), sehr auf große Unternehmen optimiert, relativ sparsam, aber für kleine Unternehmen zu teuer. Igel enthalten sehr lahme Prozessoren, wenig RAM, eine kleine CF-Karte, und eben die optimierte Thin Client-Software, die eigentlich immer am Rockzipfel der Management-Software hängt. Wenn Du mit Geld knapp bist, nimm alte Maschinen (ab Original-Pentium) und Thinstation, entweder von der lokalen Platte oder per PXE gebootet. Damit kommst Du meistens genauso weit, auch wenn sich dann der Stromzähler etwas flotter dreht.

                                Mit dem billisten Atom-Mainboard, einem billigen Gehäuse und einem kleinen RAM-Riegel bekommst Du einen Igel-Ersatz mit Thinstation per PXE für weit unter 200 Euro. Laufwerke brauchst Du in der Kiste nicht, denn PXE-Boot ist seit Jahren bei allen Mainboard serienmäßig vorhanden (muß ggf. nur aktiviert werden). Viel Stom braucht so ein "nackiger" Atom auch nicht, ich würde von unter 40W an der Steckdose ausgehen. Mit einem entsprechend kleinen Netzteil kann man nochmal das eine oder andere Watt einsparen.

                                Gebrauchte Igel wären natürlich auch eine Option.

                                Die Igel-Software ist allerdings ziemlich zickig. Wenn man das Master-Passwort nicht kennt, ist nicht einmal ein Reset auf Firmware Defaults möglich, außer man erfragt einen maschinenspezifischen Code beim Hersteller.

                                Wenn man die Igel-Software nicht braucht, aktiviert man das LAN-Boot-ROM und Boot per PXE im BIOS, zieht das Disk-on-Chip-Modul bzw. die CF-Karte raus und nutzt die Igel-Hardware mit Thinstation. Sehr alten Igeln fehlt allerdings die LAN-Boot-Funktion.

                                Die Igel-Netzteile sind wenigstens in den alten Igeln sehr eng gebaut. Und weil Thin Clients möglichst ohne bewegliche Teile auskommen sollen, ist auch kein Lüfter eingebaut. Das ergibt permanenten Wärmestau im Netzteil und dadurch Ausfälle. Elkos mögen nun einmal nicht gerne gekocht werden. Die Reparatur durch einen Fachmann ist allerdings ziemlich einfach.

                                Alexander <- schon wieder "etwas geschwätzig" ;-)

                                --
                                Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                                1. hey,
                                  oh man, ich habe mich die Tage so übelst in die einzelnen Prozesse und Anforderungen der Firma reingesteigert, dass ich alles andere vernachlässigt habe.

                                  Geh mal davon aus, dass so ziemlich alles, was irgendwelche MS-Techniken oberhalb der Win32-API nutzt, in der Registry herumwühlt. ActiveX-Controls müssen in die Registry eingetragen werden, um nur ein Beispiel zu nennen. Es gibt diverse Tools, um die Änderungen an der Registry mitzuschneiden. Laß die mal mitlaufen, wenn ein Installer läuft und wenn das installierte Programm das erste mal startet.

                                  Deshalb ist Linux viel cooler ne. Das meiste dort ist eigentlich in /etc drin plus noch kleine userbezogene Einstellungen in ~benutzer

                                  Ganz brutal und fürchterlich unsicher: Zwei frische Linux-Kisten A und B, jeweils mit X11, im LAN. Einloggen auf A, "xhost +", "telnet B", "DISPLAY=A:0 xterm". xterm läuft auf B, erscheint auf A. *Alle* in diesem xterm gestarteten Anwendungen laufen auf B. Das funktioniert nur, weil "xhost +" alle Sicherungen ausschaltet. Per ssh mit X11 forwarding geht es auch sicher, ohne "xhost +", dann kümmert sich ssh auch um die DISPLAY-Variable.

                                  XDMCP läuft etwas anders: Auf B mußt Du XDMCP explizit freischalten, abhängig vom Display Manager. Auf A startest Du X erst einmal manuell, entweder mit "X -query B" oder mit "X -broadcast". X11 selbst läuft auf A, wird aber komplett von B verwaltet. Der Window Manager und alle Anwendungen laufen auf B. Siehe auch XDMCP-Howto (schon etwas angestaubt).

                                  Vielen Dank. Damit werde ich auch herum experimentieren. Sobald man da jede Software umlenken kann, könnte man die eine oder andere Software mal auf diese Weise abrufen.

                                  Single Point of Failure.

                                  Ja an das hatte ich auch gedacht. Ist eben eine Kostenfrage, da jedoch der Server sowieso keine hohen Anforderungen erfüllen muss, könnte man zwei kleine billige (oder evtl. ein Altgerät) nehmen. Wobei, wie du bereits erwähnt hast, dann auch bei allen Geräten das RAID dazukommt. Sollte ein Gerät mal ausfallen, könnte man (vorausgesetzt die Produkte liefern virtualisiert) die Virtualisierung dann auf den anderen Rechner schieben von der RAID oder Backuplatte der defekten Servers.

                                  Du erkennst das Prinzip? Alles, was in einer VM laufen kann, kann man auch auf dedizierte, alte Hardware schieben. Das senkt die Anforderungen an die neue Hardware, und damit die Kosten.

                                  Ja. Ich hatte aber auch schon erlebt, dass eine Virtualisierung nicht auf einen anderen Rechner gezogen werden konnte, weil die Virtualisierungssoftware dann meckerte, die CPU würde dies nicht unterstützen. PAE oder ähnliches. (Ja der Rechner hatte leider keine Unterstützung vom Prozessor aus)

                                  Ein Haken ist natürlich, dass echte Hardware das Verschieben auf andere Maschinen etwas erschwert. Und Du mußt natürlich auf jedem Mini-Server ein eigenes RAID und ein eigenes Backup installieren. Wobei Backup auch schlicht heißen kann, dass die Maschinen nachts alles per rsync auf den Fileserver schaffen, und nur der im Anschluß ein "richtiges" Backup auf externe Platten macht.

                                  Ja, statt auf den Fileserver könnte man ja direkt auf die externe bzw. NAS-Platte das Backup schieben?

                                  Cool. Klingt nach einem fast gelösten Problem. Du wirst also demnächst mal Bugzilla installieren und damit experimentieren.

                                  Genau :-)

                                  Ansonsten wäre auch zu überlegen, entweder Änderungen aus dem zentralen Adressbuch automatisch in die Buchhaltung zu drücken (Access-Dateien kann man auch an der Buchhaltungssoftware vorbei beschreiben) oder (*schauder*) das Adressbuch der Buchhaltung als zentrales Adressbuch zu benutzen.

                                  Ja, die Buchhaltung ist bei dem kleinen Betrieb zum Glück noch überschaubar. Ich bin aber auch auf der Suche nach Alternativen. Die bisherhigen die ich gesehen habe, richteten sich mehr an Endanwender oder Einzelunternehmungen. Zwar bietet Lexware und Co. auch größere Produkte, trotzdem ist die Software dann irgendwie zu starr und abgekapselt vom Rest der Welt.

                                  Eine von vielen Gemeinheiten ist, dass Du Dich minimal am Webmailer, eigentlich auch am DMS, anmelden mußt. Und zwar nicht direkt, sondern "über Bande" im CGI. Du mußt Dich also am CGI anmelden, dass muß sich für Dich an beiden Systemen anmelden, und zwar ohne dass andere Sessions beendet werden. Single Sign On wäre da schön. Und irgendwelche APIs (JSON-RPC, XML-RPC, SOAP *schauder*, ...) an DMS und Webmailer, an die Scripte einfacher andocken können als an für Menschen bestimmte HTML-Seiten.

                                  Siehe auch WWW::Mechanize und WWW::Scripter.

                                  Zum Glück bin ich noch nciht soweit gekommen :-) Danke für die Links, die habe ich mir auch notiert.

                                  Mit dem billisten Atom-Mainboard, einem billigen Gehäuse und einem kleinen RAM-Riegel bekommst Du einen Igel-Ersatz mit Thinstation per PXE für weit unter 200 Euro. Laufwerke brauchst Du in der Kiste nicht, denn PXE-Boot ist seit Jahren bei allen Mainboard serienmäßig vorhanden (muß ggf. nur aktiviert werden). Viel Stom braucht so ein "nackiger" Atom auch nicht, ich würde von unter 40W an der Steckdose ausgehen. Mit einem entsprechend kleinen Netzteil kann man nochmal das eine oder andere Watt einsparen.

                                  Danke auch für das stichwort PXE. Richtig interessant. Ich bin bisher auch auf NComputing gestoßen. Soll anscheinend auch nicht all zu teuer sein.

                                  Irgendwie hatte ich noch eine einzige DMS Frage, bzw. zum Workflow, mir fällt gerade um die Uhrzeit jedoch die Frage ums verrecken nicht mehr ein :-)

                                  Alexander <- schon wieder "etwas geschwätzig" ;-)

                                  Jetzt habe ich dich aus Versehen ein paar Tage in Ruhe gelassen ;-)

                                  1. Moin Moin!

                                    oh man, ich habe mich die Tage so übelst in die einzelnen Prozesse und Anforderungen der Firma reingesteigert, dass ich alles andere vernachlässigt habe.

                                    *g*

                                    Geh mal davon aus, dass so ziemlich alles, was irgendwelche MS-Techniken oberhalb der Win32-API nutzt, in der Registry herumwühlt. ActiveX-Controls müssen in die Registry eingetragen werden, um nur ein Beispiel zu nennen. Es gibt diverse Tools, um die Änderungen an der Registry mitzuschneiden. Laß die mal mitlaufen, wenn ein Installer läuft und wenn das installierte Programm das erste mal startet.
                                    Deshalb ist Linux viel cooler ne. Das meiste dort ist eigentlich in /etc drin plus noch kleine userbezogene Einstellungen in ~benutzer

                                    Eben. rsync oder diff und patch, und alles wird gut. ;-)

                                    [...] "xhost +" [...] XDMCP
                                    Vielen Dank. Damit werde ich auch herum experimentieren. Sobald man da jede Software umlenken kann, könnte man die eine oder andere Software mal auf diese Weise abrufen.

                                    Klar. Einziger Haken ist, dass X11 entwickelt wurde, bevor man über mehr Sound als ein monotones Piepsen aus dem eingebauten Lautsprecher auch nur nachgedacht hat. Für Remote Sound parallel zu X11 muß man noch ein klein wenig Extra-Aufwand treiben. Für Office-Anwendungen ist das aber eher unwichtig. Weiterführende Links

                                    Single Point of Failure.

                                    Ja an das hatte ich auch gedacht. Ist eben eine Kostenfrage, da jedoch der Server sowieso keine hohen Anforderungen erfüllen muss, könnte man zwei kleine billige (oder evtl. ein Altgerät) nehmen.

                                    Wenn Du identische, billige HW kaufst, ist ein Verschieben von Anwendungen recht schmerzfrei.

                                    Wobei, wie du bereits erwähnt hast, dann auch bei allen Geräten das RAID dazukommt.

                                    In Software, mit relativ kleinen Platten.

                                    Du wirst noch viel daran herumrechnen. Zwei große Server, die sich gegenseitig stützen können, aber jeweils viel Geld kosten, oder ein riesiger Haufen billiger Kisten, die in Summe auch nicht ganz billig sind.

                                    Sollte ein Gerät mal ausfallen, könnte man (vorausgesetzt die Produkte liefern virtualisiert) die Virtualisierung dann auf den anderen Rechner schieben von der RAID oder Backuplatte der defekten Servers.

                                    Der Witz an einem richtig edlen Server ist eben, dass der eben nur sehr selten ohne Vorwarnung ausfällt. Die Kisten haben oft zwei redundante Netzteile, die an zwei verschiedenen Phasen und an zwei getrennten USVs laufen. Ein Ausfall einer Phase bzw. eines Netzteils erzeugt eine Warnmeldung, aber keinen Ausfall. Ebenso Lüfter: 20 Lüfter in einem Server sind Wahnsinn, bis man einplant, dass davon auch mal der eine oder andere problemlos ausfallen darf. Das Spielchen kann man auch noch mit CPUs, Speicherriegeln, Festplatten-Controllern und sonstigen PCI-Karten spielen. Der Haken ist, dass viel Redundanz nicht nur sehr viel Energie kostet, sondern auch in der Anschaffung alles andere als billig ist.

                                    Ja. Ich hatte aber auch schon erlebt, dass eine Virtualisierung nicht auf einen anderen Rechner gezogen werden konnte, weil die Virtualisierungssoftware dann meckerte, die CPU würde dies nicht unterstützen. PAE oder ähnliches. (Ja der Rechner hatte leider keine Unterstützung vom Prozessor aus)

                                    Richtig, wenn Du das Verschieben von VMs einplanst, sollten die Host-Rechner möglichst ähnlich sein, am besten eineiige Zwillinge. Und wie gesagt, Hosts für VMs brauchen viel RAM und möglichst gute Unterstützung durch die CPU und den Chipsatz.

                                    Ein Haken ist natürlich, dass echte Hardware das Verschieben auf andere Maschinen etwas erschwert. Und Du mußt natürlich auf jedem Mini-Server ein eigenes RAID und ein eigenes Backup installieren. Wobei Backup auch schlicht heißen kann, dass die Maschinen nachts alles per rsync auf den Fileserver schaffen, und nur der im Anschluß ein "richtiges" Backup auf externe Platten macht.

                                    Ja, statt auf den Fileserver könnte man ja direkt auf die externe bzw. NAS-Platte das Backup schieben?

                                    Das ist eine Frage der Bandbreite und der CPU-Leistung. Du hast ein zentrales NAS-System für Backup. Alle Server pumpen dort per rsync die Änderungen des Tages hin. Alle gleichzeitig und Dein NAS und Dein Netz stehen. Gerade die kleinen NAS-Systeme haben CPUs, die nicht besonders flott rechnen können, da reicht die Leistung gerade so, um Daten von der Platte auf das LAN und zurück zu schaufeln.

                                    Letztlich hilft da nur ausprobieren oder gut schätzen. Oder Du holst Dir jemanden ins Haus, der keine Probleme hat, Dir fünf oder sechs Nullen für eine bombensichere Backup-Lösung aus den Rippen zu leiern.

                                    Deswegen die Idee, den vermutlich etwas kräftigeren Fileserver zum Dämpfen dieses Effektes zu benutzen. Der könnte auch in einem Backup-Script erst einmal von den ganzen altgedienten Reste-Maschinen per rsync deren geänderte Daten einsammeln, schön eine nach der anderen, und danach seine eigenen Daten und die Kopien der Reste-Maschinen auf einen Schlag auf das NAS rsync-en.

                                    Auf dem Fileserver hättest Du dann von jeder Reste-Maschine einen kompletten Dateibaum mit dem Stand der letzten Nacht, und auf dem NAS entsprechend alle Dateibäume inklusive Fileserver als Satz von Hardlink-Kopien für mehrere Tage (10..20, je nach Platz und Anforderungen).

                                    Das geht prinzipiell natürlich auch von einem (Unix-basierten) NAS aus, bei dem Du Zugriff auf das Betriebssystem hast und ssh und rsync nutzen kannst.

                                    Mit dem billisten Atom-Mainboard, einem billigen Gehäuse und einem kleinen RAM-Riegel bekommst Du einen Igel-Ersatz mit Thinstation per PXE für weit unter 200 Euro. Laufwerke brauchst Du in der Kiste nicht, denn PXE-Boot ist seit Jahren bei allen Mainboard serienmäßig vorhanden (muß ggf. nur aktiviert werden). Viel Stom braucht so ein "nackiger" Atom auch nicht, ich würde von unter 40W an der Steckdose ausgehen. Mit einem entsprechend kleinen Netzteil kann man nochmal das eine oder andere Watt einsparen.

                                    Danke auch für das stichwort PXE. Richtig interessant. Ich bin bisher auch auf NComputing gestoßen. Soll anscheinend auch nicht all zu teuer sein.

                                    Hat was von "Citrix für Arme". Oder auch VMware View.

                                    Letztlich hast Du da einen Haufen Spezial-Hardware, der zusätzliche Mäuse, Tastaturen und Bildschirme an einen konventionellen PC klöppelt, entweder per USB oder per LAN.

                                    Das geht mit ein paar Patches unter Linux auch ohne Spezial-Hardware, man stopft einfach einen PC mit Grafikkarten voll, hängt an jede Grafikkarte einen Monitor und legt davor je eine USB-Maus und eine USB-Tastatur. Der Rest ist etwas Trickserei beim Einrichten von X11, damit auf jedem Monitor eine völlig unabhängige X11-Instanz läuft, die sich jeweils nur eine Tastatur und nur eine Maus schnappt.

                                    Der Nachteil ist natürlich offensichtlich. Mehrere Leute müssen sich eine CPU teilen. Mit Multi-Core-Prozessoren ist das nicht mehr ganz so schlimm, aber wenn Du 6 OpenOffice-Instanzen, 6x Firefox, 6x Thunderbird, und 6x eine fette Oberfläche wie Gnome oder KDE laufen läßt, kommt auch ein flotter Rechner ganz schön ins schwitzen. Und längst nicht jede Resource im PC ist 6x verfügbar, trotzt 6 oder 12 Cores hat so ein System nur zwei oder drei Speicher-Kanäle, eine Netzwerkkarte, eine oder zwei Festplatten, und einen einzigen Hauptschalter. Und in sechs Räume wirst Du so eine Kiste auch nicht verteilen können.

                                    Den letzten Teil, und nur den letzten, kompensiert die Spezialdose mit Netzwerk-Anschluß.

                                    Citrix erspart sich (je nach Setup) oft das ganze Desktop-Gebastel, stattdessen wird nur das Applikationsfenster auf den Desktop des lokalen Betriebssystems gepinselt, ganz ählich wie bei ssh X11 forwarding und dem völlig unsicheren "xhost +".

                                    Thin Clients (auch selbstgestrickt mit Thinstation) schaffen die einzelnen Grafikkarten und die daran hängenden X11-Server samt Maus und Tastatur aus dem geteilten Rechner, die Arbeit, eine Hand voll Desktops zu verwalten, bleibt aber auf dem geteilten Rechner.

                                    Etwas fettere Thin Clients (z.B. Igel, Thinstation bei entsprechender Konfiguration) haben einen lokal laufenden Desktop, auf den wie bei der Anwendungsverteilung à la Citrix nur die Anwendungen vom geteilten Rechner gepinselt werden.

                                    Und ob diese drangebastelten Kisten in Summe billiger als einzelne Rechner sind, würde ich auch mal nachrechnen. Du darfst natürlich nicht vergessen, dass Du einen wirklich gut ausgestatteten PC für jeweils eine sehr kleine Zahl von Desktop-Döschen brauchst.

                                    Ich hab am Wochenende im Verlauf einer anderen Diskussion mal rumgerechnet, einen Desktop ohne eigene Laufwerke, aber mit Maus, Tastatur, Monitor auf Atom-Basis kann man für ca. 150 Euro selbst zusammenbauen. Und einen Mini-Fileserver auf der selben Basis, mit zwei SATA-Platten, aber ohne Maus, Monitor, Tastatur, für rund 200 Euro. 6 Desktops, ein Server, und noch mal 30 Euro für einen Gigabit-Switch macht etwa 1130 Euro, mit ein paar Patch-Kabeln und Versand 1200 Euro.

                                    Die NComputing-Geräte mit Ethernet listet Google für rund 200 Euro. Da bist Du bei 6 Arbeitsplätzen schon bei 1200 Euro, ohne Monitore, ohne Mäuse, ohne Tastaturen, und ohne den fetten PC, der das alles antreiben soll. Ein Switch ist da auch noch nicht drin.

                                    Das überzeugt mich irgendwie nicht.

                                    Irgendwie hatte ich noch eine einzige DMS Frage, bzw. zum Workflow, mir fällt gerade um die Uhrzeit jedoch die Frage ums verrecken nicht mehr ein :-)

                                    Kommt noch ... -- nächstes Mal einfach irgendwo aufschreiben.

                                    Alexander

                                    --
                                    Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                                    1. Hi,

                                      Klar. Einziger Haken ist, dass X11 entwickelt wurde, bevor man über mehr Sound als ein monotones Piepsen aus dem eingebauten Lautsprecher auch nur nachgedacht hat. Für Remote Sound parallel zu X11 muß man noch ein klein wenig Extra-Aufwand treiben. Für Office-Anwendungen ist das aber eher unwichtig. Weiterführende Links

                                      Danke, für den Link. Sound wäre eigentlich überhaupt nicht wichtig. Hauptsache die Anwendungssoftware kann von entfernt gesteuert werden.

                                      Der Witz an einem richtig edlen Server ist eben, dass der eben nur sehr selten ohne Vorwarnung ausfällt. Die Kisten haben oft zwei redundante Netzteile, die an zwei verschiedenen Phasen und an zwei getrennten USVs laufen. Ein Ausfall einer Phase bzw. eines Netzteils erzeugt eine Warnmeldung, aber keinen Ausfall. Ebenso Lüfter: 20 Lüfter in einem Server sind Wahnsinn, bis man einplant, dass davon auch mal der eine oder andere problemlos ausfallen darf. Das Spielchen kann man auch noch mit CPUs, Speicherriegeln, Festplatten-Controllern und sonstigen PCI-Karten spielen. Der Haken ist, dass viel Redundanz nicht nur sehr viel Energie kostet, sondern auch in der Anschaffung alles andere als billig ist.

                                      Genau. Wie wir bereits erwähnt hatten, könnte man jede Kleinigkeit, sei es von Netzteil, bis Netzwerkkabel doppelt oder mehrfach auslegen. Da es sich aber in unserer Firma um eine wirklich sehr kleine Firma handelt, wäre das sicherlich viel zu overhead. Ein kleiner Server hat zwar den Nachteil, dass bei einem Ausfall alles lahm liegt, aber das wäre sogar in der kleinen Firma gut zu verkraften. (Also so klein ist die Firma :-) )

                                      Könntest du mir eine kleine Konfiguration eigentlich empfehlen. Ob ich nun einen oder doch zwei Server aufbaue, bin ich mir noch nicht ganz sicher.
                                      (Es kommen eben, wie wir bereits geschrieben haben, so Sachen wie Groupware (vermutlich group-e), DMS, Fileserver, OpenVPN (Zugriff von außen), netzwerkfähige kleine Buchhaltungssoftware, SVN für Entwicklungen drauf.
                                      Ich würde mir dann einen oder zwei kleine Server in Einzelteile zusammenkaufen. (5GB für Dokumente und Dateien sind vorhanden, also eigentlich auch nicht die Welt). zzgl. Videotutorials (die dann einen Haufen schlucken. Etwa 100GB.)
                                      Ob ich gleich auch einen USV nehmen sollte, weiß ich nicht. Stromausfall gab es bisher eigentlich nie, aber man weiß ja auch nie :-)

                                      Meine Überlegung liegt derzeit darin, ob ich einen leistungsstärkeren Rechner nehmen sollte oder doch einen stromsparenden Atom-Prozesseor oder so. Das wäre aber denke ich, dann doch etwas schwach.
                                      Ob Wake-On-Lan interessant wäre, muss ich mir noch überlegen, ob man den Server auch oft  mal ausschaltet. (Wobei man dann nicht mehr auf Emails zugreiffen könnte, ohne den Rechner extra hochfahren zu lassen)

                                      [..]

                                      Das überzeugt mich irgendwie nicht.

                                      Da hast du definitiv recht :-)

                                      Irgendwie hatte ich noch eine einzige DMS Frage, bzw. zum Workflow, mir fällt gerade um die Uhrzeit jedoch die Frage ums verrecken nicht mehr ein :-)

                                      Kommt noch ... -- nächstes Mal einfach irgendwo aufschreiben.

                                      Die Problematik ist mir wieder eingefallen, da wie bereits erwähnt, mein größtes Problem eher die Findung einer geeigneten DMS Software ist.

                                      Sobald die DMS Software installiert ist, kann man ja Dateien (meißt über Webbrowser) rein- oder herunterladen. (Für manche Dateieformate gibt es ja wie bereits erwähnt auch Schnittstellen, bsp. Office / Openoffice um Dateien direkt in die DMS zu speichern usw)

                                      Das große Problem ist aber, wenn es Dateien wie zum Beispiel ein Diagramm in XMIND oder sonstiges Programm ist. Ich lade die Datei herunter und zwischenspeichere es zum Beispiel auf meinem Laptop. Ändere die Datei und lade es wieder hoch. Dieser Workflow ist natürlich etwas umständlich. Aber was ich eigentlich schlimmer finde. Wenn die DMS versioniert, heißt es, dass er dann sicherlich die komplette Datei als neue Version abspeichert. (Es ist ja nicht wie SVN, um aus normalen lesbaren Dateien nur die Änderungen zu speichern)
                                      Hoffentlich konnte ich mein Problem schildern.

                                      (Auf die schnelle denke ich mir, dass dieses Problem eigentlich damit gelöst werden könnte, dass die Dateien nicht intern in einer DMS liegen, sondern lesbar auf einer Platte bzw. Fileserver, wo die DMS dann praktisch ein Layer auf die Dateien mit all seinen Metadaten legen kann. D.h., jedes andere Programm könnte (ohne rein- und herunterladen zu müssen), direkt auf die Dateien zugreifen. Dann kommt jedoch das Problem, dass man an der DMS Software vorbei sicherlich viel mist bauen kann, bsp. Dateien umbenennen, verschieben usw.) Also irgendwie keine gescheite Lösung.

                                      Liebe Grüße und nochmals vielen Dank für alle die Tipps.
                                      Irgendwie überlege ich mir gerade jedoch, ob ich die Frage bzwl. der Serveraustattung von mir sinnvoll ist. Vielleicht sollte ich einen zusammenstellen und fragen, ob die Konfiguration, bzw. Einzelteile so okey sind.

                                      1. Moin Moin!

                                        Der Witz an einem richtig edlen Server ist eben, dass der eben nur sehr selten ohne Vorwarnung ausfällt. [...] Der Haken ist, dass viel Redundanz nicht nur sehr viel Energie kostet, sondern auch in der Anschaffung alles andere als billig ist.

                                        Genau. [...] Ein kleiner Server hat zwar den Nachteil, dass bei einem Ausfall alles lahm liegt, aber das wäre sogar in der kleinen Firma gut zu verkraften. (Also so klein ist die Firma :-) )

                                        Die Frage ist also, wie lang darf die Downtime sein, im Worst Case, wenn alle unbedingt arbeiten wollen und sich vor der EDV ein wütender Mob von Kunden und Kollegen mit brennenden Fackeln und Mistgabeln sammelt?

                                        Könntest du mir eine kleine Konfiguration eigentlich empfehlen. Ob ich nun einen oder doch zwei Server aufbaue, bin ich mir noch nicht ganz sicher.

                                        Ich hab in einem mittlerweile leider eingegangenen Startup mit in der Spitze fünf Leuten einen einzelnen Server aus einem stinknormalen Billig-PC gebaut, den ich ohne OS von einem Restposten-Händler gekauft hatte (ich denke, das war Pollin). Das war irgendein Intel Dual Core mit unter 2 GHz. RAM hab ich auf 2 GByte aufgerüstet, die vorhandene Platte in einen noch ärmer ausgestatteten Arbeits-PC umgetopft und durch zwei 250 GByte-SATA-Platten ersetzt. Dazu eine 320 GByte USB-Platte für das Backup. VMware lief darauf, allerdings nur für Test-Maschinen, nicht für permanent genutzte Server.

                                        Den Ansatz würde ich bei knappen Budget nochmal fahren:

                                        Ein oder zwei identische Kisten, so viel RAM rein wie Mainboard und Budget erlauben (minimal 8 GByte, eher 16 oder 32), und ganz normale SATA-Festplatten im Software-RAID.

                                        Grafikkarte muß nicht sein, die Chipsatz-Grafik reicht vollkommen. Boards ohne Chipsatz-Grafik (bzw. bei Intel CPUs, die die Chipsatz-Grafik nicht erlauben) kann man mit der billigsten, schlappsten, ältesten VGA aufrüsten, die sich finden läßt. Die VGA braucht man schließlich nur, um das Betriebssystem zu installieren und um im Fehlerfall reparieren zu können, und da reicht für echte Betriebssysteme der Textmodus vollkommen aus.

                                        AMD oder Intel ist eher eine Glaubensfrage, AMD ist bei seinen CPUs und Chipsätzen (noch) etwas großzügiger mit Features, die der Virtualisierungssoftware gut bekommen, bei Intel muß man in der Regel dafür extra zahlen. Die CPU sollte zwingend 64Bit-Betriebssysteme fahren können, und ein solches würde ich auch installieren, allein schon, um den Arbeitsspeicher ohne Klimmzüge ansprechen zu können und um 64-Bit-Betriebssysteme in den VMs haben zu können.

                                        CPU-Takt sollte irgendwo zwischen 2 und 3 GHz liegen, darunter ist zu langsam, darüber wird das System schnell zu heiß. TDP (Thermal Design Power) der CPU sollte möglichst unter 100W liegen, aus dem selben Grund.

                                        Minimal zwei CPU-Kerne, bei vielen VMs eher vier.

                                        Zwischen den Platten nach Möglichkeit je einen freien Platz lassen, damit die ihre Abwärme besser los werden. Möglichst auch noch einen großen Extra-Lüfter vorne im Gehäuse spendieren, der den Platten permament kühle Frischluft zufächelt.

                                        Maus und Tastatur über USB an den beiden Front-Anschlüssen, nur bei Bedarf. Alternativ teilen sich beide Server einen Konsolensatz (Monitor, Tastatur, Maus) über einen elektronischen KVM-Switch.

                                        Ein optisches Laufwerk muß nicht zwingend sein, Brennfunktion schon gar nicht. Wenn ein einfaches DVD-Laufwerk schon in der Grundausstattung nicht abwählbar drin ist, gut. Wenn nicht, nimmst Du ein USB-DVD-Laufwerk oder stöpselst für die Installation ein lose herumfliegendes, ausgeliehenes Laufwerk per IDE oder SATA an.

                                        Gigabit-LAN. Optimal 2x, einmal Büro-LAN, einmal isoliertes Backup-LAN.

                                        Alternative zum Backup-NAS: e-SATA-Port, e-SATA-Gehäuse mit großer Platte.

                                        (Es kommen eben, wie wir bereits geschrieben haben, so Sachen wie Groupware (vermutlich group-e), DMS, Fileserver, OpenVPN (Zugriff von außen), netzwerkfähige kleine Buchhaltungssoftware, SVN für Entwicklungen drauf. Ich würde mir dann einen oder zwei kleine Server in Einzelteile zusammenkaufen. (5GB für Dokumente und Dateien sind vorhanden, also eigentlich auch nicht die Welt). zzgl. Videotutorials (die dann einen Haufen schlucken. Etwa 100GB.)

                                        Du vergißt die VMs. Auf "meinem" Entwicklungsserver liegen 10 VMs mit Win2K / WinXP, ein SVN-Repository und etwas Kleinkram, damit ist die Datenplatte mit über 200 GByte gefüllt.

                                        Und Du vergißt das Wachstum der Daten. SVN wächst mit jedem Arbeitsschritt, ebenso die Mail-Verzeichnisse und die Fileserver-Freigaben.

                                        Bei den aktuellen Plattenpreisen würde ich gnadenlos die größten Platten kaufen, die ohne Theater an jedem halbwegs aktuellen Mainboard und mit jedem OS laufen: 2 TByte SATA. Über 2 TByte gibt es mit Partitionsgrößen, Sektorgrößen, BIOS-, Controller-, Treiber- und OS-Limits viel Ärger, den man am besten noch zwei Jahre aussitzt.

                                        Davon zwei Stück als RAID-1 bringt so ca. 1,9 TByte nutzbare Kapazität, wenn Du das OS auch auf das RAID packst. Drei Stück in einem RAID-5 entsprechend 3,9 TByte, vier 5,9 TByte.

                                        RAID-1 unter Linux ist völlig schmerzfrei, für das RAID-5 brauchst Du zwingend auch noch eine separate Boot-Partiton, die maximal RAID-1 sein darf: Ich nutze in meinem Heimserver 4x 1 TByte, mit je vier Partitionen (Boot, System, Swap, Daten). Die vier Boot-Partition bilden ein kleines RAID-1 (ca. 100 MByte netto), so dass ich von jeder einzelnen Platte booten kann. Die vier System-Partitionen bilden ein RAID-5 (ca. 50 GByte netto). Die Swap-Partitionen sind mehr pro Forma vorhanden, Linux verwaltet die selbst (kein RAID, je ca. 500 MByte). Und die restlichen vier Daten-Partitionen bilden ein großes RAID-5 mit ca. 2,7 TByte Netto-Kapazität.

                                        Ob ich gleich auch einen USV nehmen sollte, weiß ich nicht. Stromausfall gab es bisher eigentlich nie, aber man weiß ja auch nie :-)

                                        Auch da wieder die Frage: Wie lange darf ein Ausfall dauern?

                                        Ext3 und NTFS sind relativ robust, was Stromausfälle angeht. Aber das Journal Recovery nach einem Stromausfall dauert auf einem TByte-RAID eine Weile, der fsck erst recht.

                                        Eine USV macht übrigens noch mehr als nur dem Computer eine Chance zu geben, bei Netzausfall sauber herunterzufahren. Sie schützt (in gewissen Grenzen) auch vor Über- und Unterspannung, die durchaus auch mal für Störungen sorgen können.

                                        Achte bei der USV darauf, dass sie eine Leitung (RS232, USB) zum geschützen PC hat, damit sie einen Stromausfall auch signalisieren kann. Nach einem Stromausfall zieht eine USV übrigens SEHR VIEL Strom, damit der Akku schnell wieder aufgeladen ist. Mehrere USVs parallel an eine Sicherung zu hängen ist daher eine extrem dämliche Idee.

                                        Privat habe ich mal mit einer alten USV gearbeitet, die hat dank schlapper Akkus mehr Ausfälle verursacht als verhindert. Also hoffe ich wieder auf guten Strom und robuste Dateisysteme, wie schon die Jahre davor.

                                        Im Betrieb gibt es eine zentrale USV und einen Notstrom-Diesel, da muß ich mir über Stromausfälle keine Sorgen machen.

                                        Ach ja, Signalisierung. Jede USV macht's anders, inkompatibel zu allen anderen USVs, und gerade bei USB-Anschluß ohne Spezialtreiber des Herstellers nicht zu gebrauchen. Auf der sogenannten RS232-Schnittstelle der USV ist meistens ein Schaltkontakt, mit dem man unabhängig von Betriebssystem und Treibern dem PC über dessen RS232-Schnittstelle wenigstens "gleich wird's dunkel" signalisieren kann. Für Linux scheint der schmerzfreieste Weg wohl eine USV von APC mit RS232-Schnittstelle und passendem Kabel zu sein.

                                        Meine Überlegung liegt derzeit darin, ob ich einen leistungsstärkeren Rechner nehmen sollte oder doch einen stromsparenden Atom-Prozesseor oder so. Das wäre aber denke ich, dann doch etwas schwach.

                                        Als Server ist ein Atom definitiv zu langsam, wenn der Server mehr als nur kleiner File- ODER Mailserver sein soll. An reinen Büro-Arbeitsplätzen kann ein Atom genügen. Entwicklern gibt man besser flotte Kisten, siehe alte Postings.

                                        Falls nicht vorhanden, leih Dir mal ein Netbook mit Atom aus und arbeite damit ernsthaft (d.h. mit externer Tastatur, externer Maus, externem Monitor, Strom aus der Steckdose, Energiespar-Optionen abgeschaltet) einen Tag lang. Dann kannst Du beurteilen, ob das für Arbeitsplätze reicht.

                                        Ob Wake-On-Lan interessant wäre, muss ich mir noch überlegen, ob man den Server auch oft  mal ausschaltet. (Wobei man dann nicht mehr auf Emails zugreiffen könnte, ohne den Rechner extra hochfahren zu lassen)

                                        WoL ist für die Fernwartung von Arbeitsplätzen, nicht für Server. Einen Server schaltet man nach dem Kauf ein und nach der Inbetriebnahme des Nachfolgers wieder aus.

                                        Die Problematik ist mir wieder eingefallen, da wie bereits erwähnt, mein größtes Problem eher die Findung einer geeigneten DMS Software ist.

                                        Sobald die DMS Software installiert ist, kann man ja Dateien (meißt über Webbrowser) rein- oder herunterladen. (Für manche Dateieformate gibt es ja wie bereits erwähnt auch Schnittstellen, bsp. Office / Openoffice um Dateien direkt in die DMS zu speichern usw)

                                        Das große Problem ist aber, wenn es Dateien wie zum Beispiel ein Diagramm in XMIND oder sonstiges Programm ist. Ich lade die Datei herunter und zwischenspeichere es zum Beispiel auf meinem Laptop. Ändere die Datei und lade es wieder hoch. Dieser Workflow ist natürlich etwas umständlich.

                                        Anders geht es aber kaum. Man könnte ein FUSE-Dateisystem darüber legen, oder eine Shell-Extension bzw. ein Plugin, das bei jedem Speichervorgang automatisch ein Checkin macht, aber das macht es nicht hübscher und müllt das DMS noch schneller voll.

                                        Aber was ich eigentlich schlimmer finde. Wenn die DMS versioniert, heißt es, dass er dann sicherlich die komplette Datei als neue Version abspeichert. (Es ist ja nicht wie SVN, um aus normalen lesbaren Dateien nur die Änderungen zu speichern)

                                        Hmm, das kommt auf das DMS an. Vermutlich speichern die meisten DMS tatsächlich vollständige Kopien. Man könnte natürlich auf SVN ein DMS draufbasteln ...

                                        Aber hey, Plattenplatz ist billig! Mein Haus- und Hoflieferant nimmt aktuell für die billigste 2 TByte-Platte noch nicht einmal 70 Euro. Vier davon in einem RAID-5 bringen Dir 6 TByte mit Schutz gegen Ausfall einer Platte für deutlich unter 300 Euro. Und bis Du die mit XMind vollgestopft hast, bist Du vermutlich längst in Rente.

                                        (Auf die schnelle denke ich mir, dass dieses Problem eigentlich damit gelöst werden könnte, dass die Dateien nicht intern in einer DMS liegen, sondern lesbar auf einer Platte bzw. Fileserver, wo die DMS dann praktisch ein Layer auf die Dateien mit all seinen Metadaten legen kann. D.h., jedes andere Programm könnte (ohne rein- und herunterladen zu müssen), direkt auf die Dateien zugreifen. Dann kommt jedoch das Problem, dass man an der DMS Software vorbei sicherlich viel mist bauen kann, bsp. Dateien umbenennen, verschieben usw.) Also irgendwie keine gescheite Lösung.

                                        Nein, das vergiß bitte wieder ganz schnell. Das DMS ist eine geschlossene Kiste mit einer definierten Schnittstelle zu den Benutzern, an der man sich auf gar keinen Fall vorbeimogelt. Wenn Du in der internen Ablage des DMS herumfummelst, sind riesige Inkonsistenzen garantiert.

                                        Wenn Du Fileserver-artige Zugriff auf die Dateien haben willst, brauchst Du eine Schnittstelle zwischen DMS und Shell/Desktop (FUSE / Shell-Plugin) oder zwischen DMS und Andwendungen (Office-Plugin).

                                        Irgendwie überlege ich mir gerade jedoch, ob ich die Frage bzwl. der Serveraustattung von mir sinnvoll ist.

                                        Ist sie.

                                        Vielleicht sollte ich einen zusammenstellen und fragen, ob die Konfiguration, bzw. Einzelteile so okey sind.

                                        Ganz ehrlich: Auf Details kommt es kaum noch an, wenn Du Standard-Hardware benutzt. Kleiner Laden, relativ lange Ausfallzeiten akzeptabel, da brauchst Du nichts besonderes. Siehe oben. Vielleicht ein Rackmount-Gehäuse statt der normalen Tower. Und darin vielleicht noch Wechselrahmen für die Platten.

                                        Alexander

                                        --
                                        Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                                        1. Nachtrag:

                                          Alternative zum Backup-NAS: e-SATA-Port, e-SATA-Gehäuse mit großer Platte.

                                          Alternative zur Alternative: USB-3.0-Port auf dem Mainboard, daran eine externe USB-3.0-Platte.

                                          Bei beiden Varianten sei vor der 2-TB-Grenze gewarnt, mit der es leider immer noch Probleme gibt.

                                          Alexander

                                          --
                                          Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                                          1. Und noch ein Nachtrag:

                                            In der aktuellen c't 23/2011 ist ab Seite 158 ein Bauvorschlag für einen durchaus brauchbaren Server zu finden. Der ist zwar ein wenig auf Windows Home Server 2011 ausgerichtet, aber auch unter einem aktuellen Linux sollte die Kiste Spaß machen. Ganz nebenbei spart man so die 42 Euro für die Windoof-Lizenz und weitere 18 Euro für Energiespar-Software. (18 Euro für etwas, dass man mit einer einzelnen Zeile in der crontab unter Linux erledigen kann ...)

                                            Technische Anmerkungen:

                                            * Bei hoher CPU-Anforderung kann man den Celeron noch gegen einen kräftigeren Core i3/5/7-Prozessor tauschen.

                                            * Vibrationsdämpfende Rahmen für die Festplatten sind bei einem Homeserver sinnvoll. Bei einem Server, für den man die Besenkammer im Büro ausräumt, um diese mit "Serverraum" zu beschriften, kann man sich die Dinger sparen und stattdessen feste Rahmen benutzen.

                                            * Die Zickereien des Onboard-LAN-Adapters betreffen nur geschlossene Systeme wie Windoof und VMware ESXi. Eine normale, halbwegs aktuelle Linux-Distribution sollte damit keine Probleme haben.

                                            * Der Wechselrahmen für "nackte" SATA-Platten ist eine nette Idee, allerdings möchte ich um mein Backup-Medium lieber eine Hülle haben, die Elektronik und Mechanik schützt. Sprich: eSATA- oder USB-3.0-Gehäuse oder wenigstens einen geschlossenen Rahmen. Geschmackssache.

                                            * Die zweite LAN-Karte ist als Workaround für kaputte Systeme gedacht, gibt aber auch einen hervorragenden Weg ins Backup-NAS ab. Das Backup-Netz läßt sich so komplett vom normalen LAN trennen. Ob man da aber über 20 Euro für eine Intel-Karte ausgeben muß, sei dahin gestellt. Eine billige Realtek für unter 10 Euro tut's auch.

                                            * An eine Grafikkarte statt der CPU-/Chipsatz-Grafik hat offenbar niemand gedacht. Damit steht (bei passender Einstellung im BIOS) der komplette Speicher dem Betriebssystem zur Verfügung. Das Board scheint sogar noch einen klassischen PCI-Steckplatz zu haben, da paßt also auch noch eine antike VGA aus 486er-Zeiten aus der Restekiste rein. Die haben den großen Vorteil, komplett ohne Kühlung auszukommen, schlicht weil sie grottenlangsam sind. Wie gesagt, für Installation und Service reicht das locker.

                                            * Das das ATX-Netzteil unten sitzt, ist kein Problem. Wer bei laufendem Rechner an der Hardware schraubt, verdient einen elektrischen Schlag und brennende Netzteile.

                                            * Bunte SATA-Kabel sind eine nette Idee, aber mit einem wasserfesten Stift kann man auch konventionelle SATA-Kabel unverwechselbar markieren.

                                            Der im Artikel erwähnte HP MicroServer NL36 heißt richtig HP ProLiant MicroServer N36L, ist kompakter und billiger, das ist richtig, und leider praktisch nicht mehr zu bekommen. Ich habe noch einen ergattert, den auf 8 GByte RAM aufgerüstet und bin damit völlig zufrieden. Erweiterbar ist der eigentlich nicht, zwar sind zwei PCI-e Steckplätze vorhanden, aber die sind nur für kleine Low-Profile-Karten geeignet und nur mit sehr viel Aufwand erreichbar. Man muß die Maschine fast völlig zerlegen, um an die Steckplätze zu kommen. Die Verkabelung im Gerät ist eine Zumutung, und das Verhältnis von 4x USB an der Front und nur 2x am Heck ist genau falsch herum. Die Festplatten im N36L stecken übrigens in ungedämpften Plastik-Rahmen, trotzdem läuft die Maschine fast lautlos.

                                            Alexander

                                            --
                                            Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                                            1. Und noch ein Nachtrag:

                                              hey danke. Hier sind auch viele nützliche Tipps drin.

                                              * Vibrationsdämpfende Rahmen für die Festplatten sind bei einem Homeserver sinnvoll. Bei einem Server, für den man die Besenkammer im Büro ausräumt, um diese mit "Serverraum" zu beschriften, kann man sich die Dinger sparen und stattdessen feste Rahmen benutzen.

                                              Ja, zu meinen Aspekten gehört leider auch Lautstärke und Energieverbrauch. Hier muss ich eine gute Mitte finden, da der Server direkt im Büro steht. (Deshalb ist auch die Kühlung wichtig, da es in einem kühlen Keller sicherlich anders aussehen würde)

                                              Grüße

                                              1. Moin Moin!

                                                Ja, zu meinen Aspekten gehört leider auch Lautstärke und Energieverbrauch. Hier muss ich eine gute Mitte finden, da der Server direkt im Büro steht. (Deshalb ist auch die Kühlung wichtig, da es in einem kühlen Keller sicherlich anders aussehen würde)

                                                Hast Du keine Besenkammer, die Du räumen lassen könntest? Kein ausreichend abgesichertes Keller-Abteil, in das man Strom und zwei Cat6-Leitungen legen lassen könnte?

                                                Der Homeserver-Ansatz in der c't dürfte ziemlich leise sein, weil nur große Lüfter verbaut sind, das in einem soliden Gehäuse, und die Festplatten ihr Gerappel dank der Rahmen nicht auf das Gehäuse übertragen.

                                                Der Celeron statt eines fetten Core-Prozessors spart Strom, ohne zu sehr zu bremsen. Ein Atom wäre sparsamer, aber der bremst eben auch. Mich hat mein Atom 230 in meinem letzten Homeserver (auf Linux-Basis) schon ein wenig gestört, für 5 bis 10 Leute als "echter" Server wäre der definitiv zu lahm gewesen.

                                                Was mich an dem Szenario "direkt im Büro" stört, ist, dass jeder an die Maschinen herankommt. Willkürliches Ausschalten im laufenden Betrieb, Zugriff direkt auf die Konsole, und nicht zuletzt die Putzfrau, die Strom für den Staubsauger braucht und die USV vom Netz trennt. Wenn Du genügend Budget hast, könntest Du über ein kleines, abschließbares Rack nachdenken, in das man die ganze Technik (Router, Switches, Patchfeld, Server, NAS, USV) einschließt. Das verhindert schonmal, dass jeder an den Maschinen herumfummelt. Eine eigene Sicherung nur für das Rack kann jeder Elektriker installieren, die Steckdosen werden im Rack eingeschlossen, damit ist auch die Putzfrau ausgehebelt. Ein echter Schutz vor einem motivierten Angreifer ist so ein Rack natürlich nicht, die Schlösser sind in der Regel eher einfach gehalten und mit etwas grobem Werkzeug leicht überwunden.

                                                Alexander

                                                --
                                                Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                                                1. Moin Moin!

                                                  [...] ein kleines, abschließbares Rack [...]

                                                  Noch 'ne Idee: Wenn Du einen ausreichend tiefen, abschließbaren Büroschrank hast, kannst Du die Server (und die sonstige Technik) auch da reinstellen. Allerdings würde ich für etwas Belüftung sorgen, unten in Tür oder Rückwand ein Lüftungsgitter, oben in Rückwand oder Deckel noch eins, und hinten in die Regalböden auch nochmal. Die Gitter gibt's für wenig Geld im Baumarkt für Badezimmertüren als Zwangslüftung. Bei so einer Konstruktion solltest Du ein wenig die Temperatur im Auge behalten, besonders an warmen Sommertagen.

                                                  Alexander

                                                  --
                                                  Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
                                        2. Hey,

                                          Die Frage ist also, wie lang darf die Downtime sein, im Worst Case, wenn alle unbedingt arbeiten wollen und sich vor der EDV ein wütender Mob von Kunden und Kollegen mit brennenden Fackeln und Mistgabeln sammelt?

                                          1-2 Tage wären kein Problem.
                                          Bei einem Serverausfall hätte man durch SVN die Entwicklungsdateien ja noch lokal auf der Festplatte. Buchhaltung macht man ja einmal im Monat oder Quartal (und die einzelnen Buchungen kann man auch mal aufschieben). Auf was man dann kein Zugriff hätte, wäre die DMS und die Groupware mit den Email-Funktionalitäten. (Aber, wenn die Emails ja nicht auf den Server heruntergezogen werden, könnte man evtl. über den Webmailer des Providers (1&1, Strato usw.) noch auf die Emails zugreifen.

                                          Maus und Tastatur über USB an den beiden Front-Anschlüssen, nur bei Bedarf. Alternativ teilen sich beide Server einen Konsolensatz (Monitor, Tastatur, Maus) über einen elektronischen KVM-Switch.

                                          Ja, diese Idee finde ich nicht schlecht.

                                          Gigabit-LAN. Optimal 2x, einmal Büro-LAN, einmal isoliertes Backup-LAN.

                                          Um mehrere Netzwerke zu gestalten, sollte dies ja der Router oder der Switch erlauben. (Bsp. VLANs), um getrennte Netze aufzubauen. Außer, man nimmt mehrere Router/Switche.

                                          Alternative zum Backup-NAS: e-SATA-Port, e-SATA-Gehäuse mit großer Platte.

                                          Ich mache die Tage mal einen Infrastruktur-Design und poste es in einem neuen Thread. Mal schauen, ob man da etwas auszusetzen dann hat. Deine bisherigen Ansätze und Ideen habe ich befolgt und versuche dies dann umzusetzen.

                                          [..]

                                          RAID-1 unter Linux ist völlig schmerzfrei, für das RAID-5 brauchst Du zwingend auch noch eine separate Boot-Partiton, die maximal RAID-1 sein darf: Ich nutze in meinem Heimserver 4x 1 TByte, mit je vier Partitionen (Boot, System, Swap, Daten). Die vier Boot-Partition bilden ein kleines RAID-1 (ca. 100 MByte netto), so dass ich von jeder einzelnen Platte booten kann. Die vier System-Partitionen bilden ein RAID-5 (ca. 50 GByte netto). Die Swap-Partitionen sind mehr pro Forma vorhanden, Linux verwaltet die selbst (kein RAID, je ca. 500 MByte). Und die restlichen vier Daten-Partitionen bilden ein großes RAID-5 mit ca. 2,7 TByte Netto-Kapazität.

                                          Ein paar kleine Einstellungen, wie du es vorgeschlagen hast, versuche ich dann gleich auch in den Infrastruktur-Design aufzunehmen und präsentiere es dann.

                                          Privat habe ich mal mit einer alten USV gearbeitet, die hat dank schlapper Akkus mehr Ausfälle verursacht als verhindert. Also hoffe ich wieder auf guten Strom und robuste Dateisysteme, wie schon die Jahre davor.

                                          Im Betrieb gibt es eine zentrale USV und einen Notstrom-Diesel, da muß ich mir über Stromausfälle keine Sorgen machen.

                                          Einen Notstrom-Diesel haben wir leider nicht zur Verfügung. Ich werde mal schauen, ob die USV von der Anschaffung her teuer sind. Wenn nicht, versuche ich dies evtl. in die Infrastruktur aufzunehmen.

                                          Ach ja, Signalisierung. Jede USV macht's anders, inkompatibel zu allen anderen USVs, und gerade bei USB-Anschluß ohne Spezialtreiber des Herstellers nicht zu gebrauchen. Auf der sogenannten RS232-Schnittstelle der USV ist meistens ein Schaltkontakt, mit dem man unabhängig von Betriebssystem und Treibern dem PC über dessen RS232-Schnittstelle wenigstens "gleich wird's dunkel" signalisieren kann. Für Linux scheint der schmerzfreieste Weg wohl eine USV von APC mit RS232-Schnittstelle und passendem Kabel zu sein.

                                          Danke für den Tipp. Dies habe ich mir auch notiert.

                                          Als Server ist ein Atom definitiv zu langsam, wenn der Server mehr als nur kleiner File- *ODER* Mailserver sein soll. An reinen Büro-Arbeitsplätzen kann ein Atom genügen. Entwicklern gibt man besser flotte Kisten, siehe alte Postings.

                                          Wenn es zwei Server Kisten werden, kann einer dann ein Atom-Server sein für groupware, der Permanent durchläuft, um Mails jederzeit und von überall auch abzurufen. Und der Leistungsstarke Server für SVN, VMs, DMS, Files nehme ich dann einen zweiten leistungsstarken Server. (Der Prinzipiell eigentlich auch nicht 24 Stunden laufen muss, sondern nur während einer definierten Arbeitszeit. (Zur Not aber üer WoL mal gestarten werden könnte, das wäre die Absicht von WoL). Aber, ob es für den Server gut ist, andauernt gestartet und ausgemacht zu werden, weiß ich nicht. Wobei es nicht schlimm ist, wenn er immer wieder mal an und ausgeht, anstatt dass er mal 1 Monat durchläuft und dann ausgeschaltet wird, bzwl. der Festplatten)

                                          WoL ist für die Fernwartung von Arbeitsplätzen, nicht für Server. Einen Server schaltet man nach dem Kauf ein und nach der Inbetriebnahme des Nachfolgers wieder aus.

                                          Genau. Dies überdenke ich derzeit noch.

                                          Hmm, das kommt auf das DMS an. Vermutlich speichern die meisten DMS tatsächlich vollständige Kopien. Man könnte natürlich auf SVN ein DMS draufbasteln ...

                                          Aber hey, Plattenplatz ist billig! Mein Haus- und Hoflieferant nimmt aktuell für die billigste 2 TByte-Platte noch nicht einmal 70 Euro. Vier davon in einem RAID-5 bringen Dir 6 TByte mit Schutz gegen Ausfall einer Platte für deutlich unter 300 Euro. Und bis Du die mit XMind vollgestopft hast, bist Du vermutlich längst in Rente.

                                          Da hast du natürlich auch wieder Recht. Probieren geht ja über studieren. Wenn man merkt, dass man in einer großen Datei permanent/oft kleine Änderungen, dann muss man mal Live schauen, wie sich das ganze entwickelt, anstatt sich davor unnötig Stunden oder Tagelang Gedanken zu machen und trotzdem nichts zu finden.

                                          (Auf die schnelle denke ich mir, dass dieses Problem eigentlich damit gelöst werden könnte, dass die Dateien nicht intern in einer DMS liegen, sondern lesbar auf einer Platte bzw. Fileserver, wo die DMS dann praktisch ein Layer auf die Dateien mit all seinen Metadaten legen kann. D.h., jedes andere Programm könnte (ohne rein- und herunterladen zu müssen), direkt auf die Dateien zugreifen. Dann kommt jedoch das Problem, dass man an der DMS Software vorbei sicherlich viel mist bauen kann, bsp. Dateien umbenennen, verschieben usw.) Also irgendwie keine gescheite Lösung.

                                          Nein, das vergiß bitte wieder ganz schnell. Das DMS ist eine geschlossene Kiste mit einer definierten Schnittstelle zu den Benutzern, an der man sich auf gar keinen Fall vorbeimogelt. Wenn Du in der internen Ablage des DMS herumfummelst, sind riesige Inkonsistenzen garantiert.

                                          Wenn Du Fileserver-artige Zugriff auf die Dateien haben willst, brauchst Du eine Schnittstelle zwischen DMS und Shell/Desktop (FUSE / Shell-Plugin) oder zwischen DMS und Andwendungen (Office-Plugin).

                                          :-)
                                          Schade, bzw. natürlich richtig, denn sonst fängt man wieder an zu frickeln.
                                          Der Gedanke war so etwas in der Art File Adaptor:

                                          Vielleicht sollte ich einen zusammenstellen und fragen, ob die Konfiguration, bzw. Einzelteile so okey sind.

                                          Ganz ehrlich: Auf Details kommt es kaum noch an, wenn Du Standard-Hardware benutzt. Kleiner Laden, relativ lange Ausfallzeiten akzeptabel, da brauchst Du nichts besonderes. Siehe oben. Vielleicht ein Rackmount-Gehäuse statt der normalen Tower. Und darin vielleicht noch Wechselrahmen für die Platten.

                                          Genau. Deshalb gehe ich jetzt mal ans Eingemachte und gehe auf die Umsetzung der gesammelten Ideen (Soll-Konzeption) über :-)

                                          Grüße

                                          1. Moin Moin!

                                            Die Frage ist also, wie lang darf die Downtime sein, im Worst Case, wenn alle unbedingt arbeiten wollen und sich vor der EDV ein wütender Mob von Kunden und Kollegen mit brennenden Fackeln und Mistgabeln sammelt?

                                            1-2 Tage wären kein Problem.

                                            Optimist.

                                            Bei einem Serverausfall hätte man durch SVN die Entwicklungsdateien ja noch lokal auf der Festplatte.

                                            Aber weder commit noch rollback oder log funktionieren.

                                            Buchhaltung macht man ja einmal im Monat oder Quartal (und die einzelnen Buchungen kann man auch mal aufschieben). Auf was man dann kein Zugriff hätte, wäre die DMS und die Groupware mit den Email-Funktionalitäten.

                                            Und damit ruht der Laden.

                                            (Aber, wenn die Emails ja nicht auf den Server heruntergezogen werden, könnte man evtl. über den Webmailer des Providers (1&1, Strato usw.) noch auf die Emails zugreifen.

                                            Hilft Dir mit dem DMS leider gar nicht.

                                            [...]

                                            Gigabit-LAN. Optimal 2x, einmal Büro-LAN, einmal isoliertes Backup-LAN.

                                            Um mehrere Netzwerke zu gestalten, sollte dies ja der Router oder der Switch erlauben. (Bsp. VLANs), um getrennte Netze aufzubauen. Außer, man nimmt mehrere Router/Switche.

                                            Jein. Klar kann man mit gemanagten Switches oder ein paar Routern wunderbar getrennte Netze aufbauen. Das ist aber gar nicht das Hauptziel der zweiten Netzwerkkarte. Die soll Backup mit maximal möglicher Geschwindigkeit erlauben, ohne dass dadurch das "normale" LAN blockiert wird.

                                            Ich mal mal was:

                                            All-in-one:

                                            PC PC PC Server
                                                     |  |  |  |
                                             NAS----[  Switch  ]----Server
                                                     |  |  |  |
                                                     PC PC PC Router

                                            Backup-Netz:

                                            PC PC PC +-----Server-----+
                                                     |  |  |  |                |
                                                    [  Switch  ]----Server----[ Switch ]----NAS
                                                     |  |  |  |
                                                     PC PC PC Router

                                            Bei der All-in-One-Variante drückt ein Server 1 GBit/s Backup-Daten zum NAS. Das sollte idealerweise den Switch nicht weiter beeindrucken. Aber es ist zwischen Server und Switch kein Bit/s Bandbreite mehr übrig, um die PCs oder den Router (d.h. die VPN-Clients) mit Daten zu versorgen. Auch Kopien von Server zu Server laufen durch den einen Switch und über die jeweils einzige Netzwerk-Verbindung und blockieren die Netzwerkverbindungen für die Clients.

                                            Bei der Variante mit dem getrennten Backup-Netz im rechten Netz drückt einer der Server 1 GBit/s Daten zum NAS, hat aber auf der anderen Netzwerkkarte noch 1 GBit/s frei, um PCs und VPN-Clients hinter dem Router zu versorgen. Auch Server-zu-Server-Kopien durch das Backup-Netz lassen die Netzwerkkarten im Produktiv-Netz (linker Switch) völlig frei.

                                            Außerdem mußt Du Dich bei der All-in-One-Variante zu 100% darauf verlassen, dass der Switch niemanden außer den Servern auf das NAS zugreifen läßt. Eine verkorkste Einstellung bei den VLANs und das Backup auf dem NAS ist tot. Bei der Variante mit zwei Switches dürfen die Switches gerne auch dumm und unmanaged und damit deutlich billiger sein, weil die Trennung der Netze per "Air Gap" erfolgt. Man kann im linken Netz anstellen was man will, man kommt nicht ins rechte Netz, so lange man keinen der Server sabotiert.

                                            Was den Durchsatz angeht: SATA ist ursprünglich auf 1,5 GBit/s ausgelegt, aktuell sind 3 GBit/s (SATA-II), verkauft wird auch schon 6 GBit/s (SATA-6G). Aktuelle Platten können die 3 GBit/s nur in der Spitze auslasten, SSDs werden durch SATA-II teilweise ausgebremst. Auf einem Fileserver kommt allerdings noch das Betriebssystem dazu, dass häufig genutze Daten am liebsten im RAM hält. Und da reden wir locker über zweistellige GBit/s.

                                            Privat habe ich mal mit einer alten USV gearbeitet, die hat dank schlapper Akkus mehr Ausfälle verursacht als verhindert. Also hoffe ich wieder auf guten Strom und robuste Dateisysteme, wie schon die Jahre davor.

                                            Im Betrieb gibt es eine zentrale USV und einen Notstrom-Diesel, da muß ich mir über Stromausfälle keine Sorgen machen.

                                            Einen Notstrom-Diesel haben wir leider nicht zur Verfügung. Ich werde mal schauen, ob die USV von der Anschaffung her teuer sind. Wenn nicht, versuche ich dies evtl. in die Infrastruktur aufzunehmen.

                                            Zentrale USV ist garantiert teuer, die versorgt nämlich das ganze Haus oder wenigstens die wichtigen Teile des Hauses. Entweder legst Du die USV auf den Gesamtbedarf des Hauses aus, inklusive Kaffeemaschinen und Staubsauger, oder Du verlegst eine komplett getrennte, zweite Elektroinstallation für Geräte, die an die USV sollen. Und du brauchst für eine "hausgroße" USV natürlich einen entsprechend großen Raum, in dem die Wandler und Akkus untergebracht werden können.

                                            Kleine USVs vor Server, Switch und NAS kosten je nach Marke, Technik, Leistung zwischen 65 € (Noname, 350 VA) und 1500 € (Marke, 3 kVA).

                                            Als Server ist ein Atom definitiv zu langsam, wenn der Server mehr als nur kleiner File- *ODER* Mailserver sein soll. An reinen Büro-Arbeitsplätzen kann ein Atom genügen. Entwicklern gibt man besser flotte Kisten, siehe alte Postings.

                                            Wenn es zwei Server Kisten werden, kann einer dann ein Atom-Server sein für groupware, der Permanent durchläuft, um Mails jederzeit und von überall auch abzurufen. Und der Leistungsstarke Server für SVN, VMs, DMS, Files nehme ich dann einen zweiten leistungsstarken Server. (Der Prinzipiell eigentlich auch nicht 24 Stunden laufen muss, sondern nur während einer definierten Arbeitszeit. (Zur Not aber üer WoL mal gestarten werden könnte, das wäre die Absicht von WoL). Aber, ob es für den Server gut ist, andauernt gestartet und ausgemacht zu werden, weiß ich nicht. Wobei es nicht schlimm ist, wenn er immer wieder mal an und ausgeht, anstatt dass er mal 1 Monat durchläuft und dann ausgeschaltet wird, bzwl. der Festplatten)

                                            Würde ich nicht machen. Server ständig ausschalten ist eine blöde Idee, schon allein, weil Du ja auch irgendwann mal Backups schreiben mußt. Und Überstunden und Nachtschichten kommen auch immer mal vor. Ich glaube nicht, dass es Deine Kollegen lustig finden, wenn Du mitten in der Nachtschicht die Server automatisch abschalten läßt.

                                            Wenn Du zwei Server kaufst, kauf die so dimensioniert, dass sich die Maschinen gegenseitig vertreten können. D.h. im Notfall schiebst Du alles auf eine Maschine, änderst die DNS-Einträge oder fügst auf dem Server 1 ein virtuelles Interface mit der IP-Adresse vom Server 2 ein, und reparierst den Server 2. Alle können weiter arbeiten, auch wenn unter Spitzenlast eine Anfrage oder ein Commit auch mal eine Sekunde länger dauert. Mit virtuellen Maschinen ist das noch einfacher, siehe alte Posts.

                                            (Die IP der virtuellen Server hängt an der VM. Die Virtualisierungssoftware auf dem Host implementiert in Software eine Bridge zwischen der realen Netzwerkkarte des Hosts und den virtuellen in den VMs. Damit stöpselt man aus LAN-Sicht beim Verschieben nur die virtuellen Server an einen anderen Switch-Port.)

                                            [...]
                                            Der Gedanke war so etwas in der Art File Adaptor:

                                            Das ist eine Migrationshilfe für Leute, die den Hauptteil ihrer Arbeit auf Fileservern liegen haben und nun langsam in ein DMS wechseln wollen.

                                            Zitat aus der verlinkten Seite:

                                            Mit dem File Adaptor binden Sie Ihre vorhandenen Dateisysteme transparent in agorum core ein. Dabei bleiben Ihre Daten dort wo sie sind (auf Ihren vorhandenen Dateiservern), können aber mit den meisten DMS Funktionen von agorum core benutzt werden.

                                            Und genau das ist der Punkt: Die *meisten* DMS-Funktionen, aber eben nicht *alle*. Frag mal nach aktueller Volltext-Suche und Versionierung. Genau das wird sehr wahrscheinlich nicht funktionieren. Die Volltext-Suche könnte man notfalls noch über irgendwelche Notify-Mechanismen erschlagen (Index-Update, sobald eine Datei verändert wurde), aber Versionierung dürfte ziemlich aussichtslos sein. Schon allein, weil mittlerweile viele Programme automatisch alle X Minuten irgendwelche unqualifizierten Zwischenstände speichern.

                                            Ich fände einen Bulk Import viel interessanter, mit dem auf einen Schlag ein ganzer Verzeichnisbaum 1:1 ins DMS übernommen wird, idealerweise mitsamt Meta-Daten (Datum, Verschlagwortung anhand der Verzeichnis-Namen, ...).

                                            Alexander

                                            --
                                            Today I will gladly share my knowledge and experience, for there are no sweeter words than "I told you so".
  2. Heyho,

    was mir spontan einfällt wäre ein VPN Tunnel.
    Kaum wäre das Notebook mit diesem Tunnel verbunden, wäre es im "Firmen-Netz".
    Mit Sicherheit hast du bei dieser Lösung auch kaum probleme ;)

    MfG
    Roman